GLM 技術(shù)團(tuán)隊宣布再次升級 ChatGLM-6B,發(fā)布 ChatGLM2-6B。ChatGLM-6B 于 3 月 14 日發(fā)布,截至 6 月 24 日在 Huggingface 上的下載量已經(jīng)超過 300w。
截至 6 月 25 日,ChatGLM2 模型在主要評估 LLM 模型中文能力的 C-Eval 榜單中以 71.1 的分?jǐn)?shù)位居 Rank 0;ChatGLM2-6B 模型則以 51.7 的分?jǐn)?shù)位居 Rank 6,是榜單上排名最高的開源模型。
ChatGLM2-6B 是開源中英雙語對話模型 ChatGLM-6B 的第二代版本,在保留了初代模型對話流暢、部署門檻較低等眾多優(yōu)秀特性的基礎(chǔ)之上,ChatGLM2-6B 引入了如下新特性:
(資料圖片僅供參考)
評測結(jié)果
以下為 ChatGLM2-6B 模型在 MMLU (英文)、C-Eval(中文)、GSM8K(數(shù)學(xué))、BBH(英文) 上的測評結(jié)果。
推理性能
ChatGLM2-6B 使用了 Multi-Query Attention,提高了生成速度。生成 2000 個字符的平均速度對比如下
Multi-Query Attention 同時也降低了生成過程中 KV Cache 的顯存占用,此外,ChatGLM2-6B 采用 Causal Mask 進(jìn)行對話訓(xùn)練,連續(xù)對話時可復(fù)用前面輪次的 KV Cache,進(jìn)一步優(yōu)化了顯存占用。因此,使用 6GB 顯存的顯卡進(jìn)行 INT4 量化的推理時,初代的 ChatGLM-6B 模型最多能夠生成 1119 個字符就會提示顯存耗盡,而 ChatGLM2-6B 能夠生成至少 8192 個字符。
項目團(tuán)隊也測試了量化對模型性能的影響。結(jié)果表明,量化對模型性能的影響在可接受范圍內(nèi)。
示例對比
相比于初代模型,ChatGLM2-6B 多個維度的能力都取得了提升,以下是一些對比示例。
數(shù)理邏輯
知識推理
長文檔理解
營業(yè)執(zhí)照公示信息