通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  少将

注册:2015-1-2880
跳转到指定楼层
1#
发表于 2024-6-5 16:37:08 |只看该作者 |倒序浏览
站长之家(ChinaZ.com) 6月5日 消息:GLM 技术团队于2023年3月14日开源了 ChatGLM-6B,引起了广泛的关注和认可。随后又开源了 ChatGLM3-6B,开发者对 GLM 第四代模型的开源充满期待。经过近半年的探索工作,GLM 技术团队推出了第四代 GLM 系列开源模型:GLM-4-9B。

GLM-4-9B 在预训练方面引入了大语言模型进行数据筛选,获得了10T 高质量多语言数据,数据量是 ChatGLM3-6B 的3倍以上。同时,采用了 FP8技术进行高效的预训练,训练效率提高了3.5倍。在有限显存的情况下,探索了性能极限,发现6B 模型性能有限。考虑到大多数用户的显存大小,将模型规模提升至9B,并将预训练计算量增加了5倍。



GLM-4-9B 模型具备更强大的推理性能、更长的上下文处理能力、多语言、多模态和 All Tools 等能力。包括基础版本 GLM-4-9B(8K)、对话版本 GLM-4-9B-Chat(128K)、超长上下文版本 GLM-4-9B-Chat-1M(1M)和多模态版本 GLM-4V-9B-Chat(8K)。

GLM-4-9B 的能力包括:

1. 基础能力:模型中英文综合性能比 ChatGLM3-6B 提升了40%;

2. 长文本能力:上下文从128K 扩展到1M tokens,相当于2本红楼梦或125篇论文的长度;

3. 多语言能力:支持26种语言,词表大小扩充到150k,编码效率提高30%;

4. Function Call 能力:在 Berkeley Function-Calling Leaderboard 上表现优秀;

5. All Tools 能力:模型可以使用外部工具完成任务;

6. 多模态能力:首次推出多模态模型,性能显著。

代码:

Github:https://github.com/THUDM/GLM-4

模型:

huggingface:https://huggingface.co/collectio ... f188c414b03c2f7e3b7

魔搭社区:https://modelscope.cn/organization/ZhipuAI

举报本楼

本帖有 1 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2024-12-28 20:26 , Processed in 0.089122 second(s), 16 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部