Transformer

大模型111人:谷歌和OpenAI的人才战争

从OpenAI和谷歌出走后,他们去了这4家公司

比标准Attention快197倍!Meta推出多头注意力机制“九头蛇”

思路来自线性注意力的一个“矛盾点”

魔改ResNet反超Transformer再掀架构之争!作者说“没一处是创新”,这些优化trick值得学

LeCun直呼架构之争愈演愈烈,ViT、EffNet作者都来一较高下

博雯 2022-01-16

正面刚CNN,Transformer居然连犯错都像人类

人类视觉更倾向于通过形状而不是纹理给物品分类

梦晨 2021-07-26