|
- 大模型微调实践:ChatGLM-6B全参数微调 - 知乎
ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需6GB显存)。
- 如何评价智谱刚刚发布的GLM-4-0414系列大模型? - 知乎
第一反应是智谱终于开源大杯(现在32B只能算中杯?)模型了。记得ChatGLM应该是第一批开源的中文大模型,我用了有挺长一度时间。后来慢慢转到模型选择更多的QWen系列。这次GLM-4-0414终于有了大杯了,可喜可贺。 简单测试了一下,效果很不错。通过 chat z ai 测试,左上角可以选择模型。
- 十分钟读懂旋转编码(RoPE)
3 RoPE代码实现 Meta 的 LLAMA 和 清华的 ChatGLM 都使用了 RoPE 编码,下面看一下具体实现。
- 为什么智谱清言比文心一言厉害这么多? - 知乎
我不认同你说的chatGLM比文心一言厉害特别多。 免费的版本,文心一言是3 5,文心一言4是要收费的。 而智谱免费开放了chatGLM 4,这两个放在一起对比就不太公平。 但是这两家公司的区别还是挺大的——智谱这家公司更像OpenAI,一家专门的研究院。
- 清华团队发布 ChatGLM2-6B ,该款版本有何亮点? - 知乎
ChatGLM 2 -6B虽然可以支持32k,但是在对话阶段使用 的8K 的上下文长度训练,因此其多轮对话能力大大增强了,但是对单轮超长文档的理解能力依然有限。 整体测试下来确实比大部分开源模型的体感要强,尤其是在长文本问答和总结方面,优势明显。
- 如何看待ChatGLM3发布,有哪些能力值得关注? - 知乎
与二代模型对比 与 ChatGLM 二代模型相比,ChatGLM3 在多个方面都有显著的提升。 例如,在处理相同的任务时,ChatGLM3 的准确率提高了 15%,而处理速度提高了 20%。 这得益于其改进的算法和更大的训练数据集,使得模型在理解和生成语言方面更加精准和高效。
- 如何评价智谱 AI 发布的 ChatGLM,以及开源支持单卡推理的 ChatGLM-6B 模型? - 知乎
今天早上刚知道斯坦福的Alpaca-7B,还说什么时候中文百亿规模模型能出来,还准备等月底MOSS开源呢,结果晚上就看到清华智谱的ChatGLM-6B了,我心中所有的期望都满足了!
- ChatGLM - 知乎
ChatGLM 是由清华大学 KEG 实验室和智谱 AI 基于千亿基座模型 GLM-130B 开发的对话语言模型。ChatGLM 在 GLM-130B 的基础上持续进行文本和代码预训练并通过有监督微调等技术实现人类意图对齐,具备文案写作、信息抽取、角色扮演、问答、对话等能力。 开源版本 ChatGLM-6B 自 3 月 14 号发布以来受到了广大
|
|
|