|
- 如何评价RoBERTa? - 知乎
roberta 是bert 的一个完善版,相对于模型架构之类的都没有改变,改变的只是三个方面: 预训练数据: BERT采用了BOOKCORPUS 和英文维基百科, 总共16GB。 而 RoBERTa采用了BOOKCORPUS + 英文维基百科+ CC-NEWS+OPENWEBTEXT+STORIES, 总共160GB。
- LM-studio模型加载失败? - 知乎
LM-studio模型加载失败问题的解决方法,提供详细步骤和注意事项,帮助用户顺利加载模型。
- 请问 HuggingFace 的 roberta 的 pooler_output 是怎么来 . . . - 知乎
roberta由于没有NSP任务也就是句子对分类任务,因此应该他们训练的时候是没有这部分权重的。 我查看了roberta官方权重,发现进行MLM训练时候是没有pooler output部分的权重,可能huggingface为了方便进行下游句子级别的文本分类任务,他们自己随机初始化了这个pooler
- 有什么好的ed2k下载器? - 知乎
知乎,中文互联网高质量的问答社区和创作者聚集的原创内容平台,于 2011 年 1 月正式上线,以「让人们更好的分享知识、经验和见解,找到自己的解答」为品牌使命。知乎凭借认真、专业、友善的社区氛围、独特的产品机制以及结构化和易获得的优质内容,聚集了中文互联网科技、商业、影视
- 如何评价ModelScope,较hugging face如何? - 知乎
最近魔搭社区 ModelScope 在知乎挺火啊,前两天刚看到开了个讨论ModelScope怎么样,今天就又看到这个话题。作为深度试用过这个社区的用户,我先抛出个人的一个结论,ModelScope确实和hugging face有一些相似之处,但确实更适合中国的开发者,特别是刚刚接触AI的一些开发者。感受到的几点不同之处: 一
- 对一个陌生的英文名字,如何快速确定哪个是姓哪个是名? - 知乎
这里我以美国人的名字为例,在美国呢,人们习惯于把自己的名字 (first name)放在前,姓放在后面 (last name) 这也就是为什么叫first name或者last name的原因(根据位置摆放来命名的)。 比如美剧生活大爆炸的谢耳朵(Sheldon Cooper),他姓Cooper,名字叫Sheldon 我觉得这样的习惯可能是因为名字是一个人的个人
- HuggingFace下载模型默认保存在~ . cache huggingface下面怎么修改这个路径? - 知乎
HuggingFace下载模型默认保存在~ cache huggingface目录下,用户可以通过修改环境变量来改变路径。
- 十分钟读懂旋转编码(RoPE)
旋转位置编码(Rotary Position Embedding,RoPE)是论文 Roformer: Enhanced Transformer With Rotray Position Embedding 提出的一种能够将相对位置信息依赖集成到 self-attention 中并提升 transformer 架构性能的位置编码方式。而目前很火的 LLaMA、GLM 模型也是采用该位置编码方式。
|
|
|