|
- 目前有什么可以本地部署的大模型推荐? - 知乎
由上图可看到,通过modelscope也可以几乎下载所有开源大模型,包括零一万物、百川、通义千问等等。 比如chatglm2-6b,代表它的模型名称为chatglm2,参数量为60亿。 二、如何判断本地硬件资源是否满足大模型的需求? 首先要搞清楚,本地可以部署什么大模型,取决于你的硬件配置(尤其关注你GPU的
- 如何看待 Google 最新开源的 Gemma-3 系列大模型? - 知乎
使用世界最佳单设备加速模型进行开发: Gemma 3在LMArena排行榜的初步人类偏好评估中超越了Llama-405B、DeepSeek-V3和o3-mini,能在单个GPU或TPU主机上运行,开发独特的用户体验。
- LM-studio模型加载失败? - 知乎
LM-studio模型加载失败问题的解决方法,提供详细步骤和注意事项,帮助用户顺利加载模型。
- RTX 5070 Ti和4070Ti Super选哪个? - 知乎
上面的表格是 llama cpp 的 TTFT 值,从测试结果来看,GeForce RTX 5070 Ti 较少 token 数规模的时候基本比 GeForce RTX 4070 Ti SUPER 更快,但是到了一定规模后,比较容易出现 GeForce RTX 5070 Ti 不如 GeForce RTX 4070 Ti SUPER 的情况。
- DeepSeek-R1 发布,性能对标 OpenAI o1 正式版 - 知乎
就在刚刚,deepseek 正式发布 DeepSeek-R1,并同步开源模型权重。 开源 DeepSeek-R1 推理大模型,与 o1 性能相近。 开源 DeepSeek-R1-Zero,预训练模型直接 RL,不走 SFT。 开源用 R1 数据蒸馏的 Qwen、Llama 系列小模型,蒸馏模型超过 o1-mini 和 QWQ。 性能对齐OpenAI-o1正式版 DeepSeek-R1 在后训练阶段大规模使用了
- 都说接入的DeepSeek是满血版,为什么感觉还是官方的好用? - 知乎
看到一个很好用的测试案例,可以用来简单测试是不是DeepSeek满血版。 请用我给你的四个数字,通过加、减、乘、除、括号,组成一个运算,使得结果为24。注意:数字需要全部我提供的数字:4 4 6 8。 这是DeepSeek官方提供的回答,简洁明了,一次就答对了。
- 如何评价 Meta 刚刚发布的 LLama 4 系列大模型? - 知乎
llama真是吊死在DPO上了 新架构infra,长上下文,Reasoning RL,工程性coding可能还是大家今年的主攻方向。 移步转眼,时间快来到了2025年中旬,Openai,Anthropic,Deepseek的大模型都憋着劲还没发,要一飞冲天,未来几个月想必会非常热闹。
- 怎么分辨在用的deepseek是不是满血版啊? - 知乎
大家好,我是吾鳴。 现在很多的互联网大厂都开始接入DeepSeek-R1大模型了,每个公司都宣称自己接入的是DeepSeek-R1满血模型,那究竟怎么区分到底是不是满血模型呢? 开始下面分享之前,我们先来看看到底什么是满血模型,其实所谓的满血模型,就是DeepSeek-R1 671B这个模型,因为其参数数量最多
|
|
|