扫码关注量子位
从OpenAI和谷歌出走后,他们去了这4家公司
Transformer还能帮助我们理解大脑
从视觉化矩阵乘法教起
还提出配套模型压缩方法
性能越好,越依赖注意力机制
老罗的TNT被做出来了?
思路来自线性注意力的一个“矛盾点”
Flash is all you need!
创始人还包括6位谷歌&DeepMind前员工
AI看一眼门口,就能脑补出房间内部画面
作者坦言:更多为了探究上限
LeCun直呼架构之争愈演愈烈,ViT、EffNet作者都来一较高下
大多数Transformer模型“开箱可用
终结最强变体之争
Transformer又在CV界秀操作
ICCV 2021,华人一作
看有些人的代码像看推理小说
人类视觉更倾向于通过形状而不是纹理给物品分类
Transformer扬眉吐气:我们真的不比CNN差