Transformer

比标准Attention快197倍!Meta推出多头注意力机制“九头蛇”

思路来自线性注意力的一个“矛盾点”

魔改ResNet反超Transformer再掀架构之争!作者说“没一处是创新”,这些优化trick值得学

LeCun直呼架构之争愈演愈烈,ViT、EffNet作者都来一较高下

博雯 2022-01-16

正面刚CNN,Transformer居然连犯错都像人类

人类视觉更倾向于通过形状而不是纹理给物品分类

梦晨 2021-07-26

AI已经会刷LeetCode了

用自然语言出一道算法题,就能自动生成代码