|
- 机器人领域最好的会议是什么? - 知乎
回答这个问题,是因为我在开始机器人领域的研究后,一直非常希望有人给我讲一讲机器人领域的会议和期刊,给我写作的指导,了解如何找到好文章和投文章,甚至包括Latex的用法,相关研究方向的Bibtex等等,回答中会涉及到部分期刊。虽然自己的publication算不上亮眼,但我总找借口说我攻读 硕士
- 用torch_geometric无法下载Cora数据怎么办? - 知乎
用torch_geometric无法下载Cora数据怎么办? 输入 from torch_geometric datasets import Planetoid dataset = Planetoid (root=… 显示全部 关注者 2
- 每一代intel核显性能相当于什么级别的独立显卡? - 知乎
ultra系列的核显提升力度还是很大的,当然了,核显吃的功耗也更多,频率也大幅度提升,期望核显能干活,还是尽量入手散热好的笔记本,比如小新pro,thinkbook+,无畏pro等。 RTX2050= 4000分; RTX3050=6000分; RTX4060=8000分左右,你自己看吧,核显什么水准。
- 英特尔公布酷睿 200 H 系列处理器,该产品有哪些亮眼性能? - 知乎
英特尔公布了新的酷睿200系列处理器,依旧采用Raptor Lake架构,频率全面提升。此前消息已经确认英特尔将…
- 请问英伟达GPU的tensor core和cuda core是什么区别? - 知乎
在这个链路中,一般是不会感知到tensor core和cuda core的区别的,因为有框架这一层帮你做好了封装;框架是调用CUDA的库完成的运算,至于调用什么core完成,CUDA lib已经设计好了,用户不用操心。当然,要是想成为高级用户,自己开发运算算子,要看CUDA 库,如CUDA runtime、CUDA driver:
- MoE (Mixture-of-Experts)大模型架构的优势是什么?为什么?
MoE 应用于大模型,GPT-4并不是第一个。在2022年的时候,Google 就提出了MoE大模型 Switch Transformer,模型大小是1571B,Switch Transformer在预训练任务上显示出比 T5-XXL(11B) 模型更高的样本效率。在相同的训练时间和计算资源下,Switch Transformer 能够达到更好的性能。
|
|
|