|
- 大模型微调实践:ChatGLM-6B全参数微调 - 知乎
ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需6GB显存)。
- chatGLM和chatGPT的技术区别在哪里? - 知乎
ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。 经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、 人类反馈强化学习 等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答,更多信息请参考我们的 博客。
- 清华团队发布 ChatGLM2-6B ,该款版本有何亮点? - 知乎
ChatGLM 2 -6B虽然可以支持32k,但是在对话阶段使用 的8K 的上下文长度训练,因此其多轮对话能力大大增强了,但是对单轮超长文档的理解能力依然有限。 整体测试下来确实比大部分开源模型的体感要强,尤其是在长文本问答和总结方面,优势明显。
- 如何评价智谱刚刚发布的GLM-4-0414系列大模型? - 知乎
第一反应是智谱终于开源大杯(现在32B只能算中杯?)模型了。记得ChatGLM应该是第一批开源的中文大模型,我用了有挺长一度时间。后来慢慢转到模型选择更多的QWen系列。这次GLM-4-0414终于有了大杯了,可喜可贺。 简单测试了一下,效果很不错。通过 chat z ai 测试,左上角可以选择模型。
- 为什么智谱清言比文心一言厉害这么多? - 知乎
我不认同你说的chatGLM比文心一言厉害特别多。 免费的版本,文心一言是3 5,文心一言4是要收费的。 而智谱免费开放了chatGLM 4,这两个放在一起对比就不太公平。 但是这两家公司的区别还是挺大的——智谱这家公司更像OpenAI,一家专门的研究院。
- 如何看待ChatGLM3发布,有哪些能力值得关注? - 知乎
与二代模型对比 与 ChatGLM 二代模型相比,ChatGLM3 在多个方面都有显著的提升。 例如,在处理相同的任务时,ChatGLM3 的准确率提高了 15%,而处理速度提高了 20%。 这得益于其改进的算法和更大的训练数据集,使得模型在理解和生成语言方面更加精准和高效。
- 如何看待ChatGLM3发布,有哪些能力值得关注? - 知乎
ChatGLM迭代速度特别快,短短一年时间已经更新到了3代。ChatGLM也是目前开源模型当中,最用户友好的了,全套的推理实现,streamlit、Gradio这些图形化使用界面的相关工具都是齐全的。不像有的开源模型,只提供命令行和API。
- 如何评价清华大学发布的GLM-130B? - 知乎
从数据运营和文本分析角度,我并没有使用130B,而是直接使用的基于GLM-130B千亿基座模型ChatGLM,先说结论:从可商业化落地B端NLP业务角度来说,ChatGLM是目前国内大模型中唯一可用的,也是目前唯一值得期待的可国产化代替chatgpt的模型。
|
|
|