|
- 为什么Clip可以用于zero shot分类? - 知乎
4 Few-shot 解决VQA问题 文中还验证了CLIP + few-shot learning能给VQA任务带来多少提升,通过在小样本上finetune CLIP模型的部分参数,提升CLIP在zero-shot VQA上的效果。
- 如何理解few-shot learning中的n-way k-shot? - 知乎
N-way K-shot 是 few shot learning 中一个非常基础的概念。 N-way K-shot:从 Meta-dataset 中随机抽取 N 类样本, (更简单的说法就是 Support set 中的类别数量,其 label 的组成通常称之为 label set),每类样本随机抽取 K+1 个实例。
- 什么是 One zero-shot learning? - 知乎
One-shot learning 指的是我们在训练样本很少,甚至只有一个的情况下,依旧能做预测。 如何做到呢?可以在一个大数据集上学到general knowledge(具体的说,也可以是X->Y的映射),然后再到小数据上有技巧的update。 相关的名词还有 transfer learning , domain adaption。 其实Zero One-shot learning都属于transfer learning
- 单目深度估计现在有哪些效果比较好的模型呢? - 知乎
如上图所示,Metric bins模块以MiDaS [1] (一种有监督的Zero-shot深度估计方法)的解码器的多尺度(五层)特征作为输入,预测用于绝对深度估计的深度区间的bins的中心。 注意论文在bottleneck层就直接预测每个像素上所有的bins(即channel的维度直接就是N_ {total})。
- 哪里有标准的机器学习术语 (翻译)对照表? - 知乎
学习机器学习时的困惑,“认字不识字”。很多中文翻译的术语不知其意,如Pooling,似乎90%的书都翻译为“…
- 为什么现在的LLM都是Decoder only的架构? - 知乎
从 面试者 的角度认真答一下^_^。 我想起了大半年前第一次在面试中遇到这个问题的窘况: 面试官 :“为什么现在的大模型大都是 decoder-only 架构?” 懵逼的我TAT:“呃呃,和encoder-only相比,它 既能做理解也能做生成,预训练的数据量和参数量上去之后,GPT这样的decoder-only模型的 zero-shot泛化能力
- 知乎 - 有问题,就会有答案
知乎,中文互联网高质量的问答社区和创作者聚集的原创内容平台,于 2011 年 1 月正式上线,以「让人们更好的分享知识、经验和见解,找到自己的解答」为品牌使命。知乎凭借认真、专业、友善的社区氛围、独特的产品机制以及结构化和易获得的优质内容,聚集了中文互联网科技、商业、影视
- CLIP 模型简介 - 知乎
CLIP模型就可以用来解决这种问题,预训练后的模型就可以直接进行 zero-shot。 17年类似方法在ImageNet上的效果只有17%,openAI认为不是方法不行,而是资源不到位,大力才能出奇迹。
|
|
|