首页
资讯
数码
智能车
智库
活动
MEET大会
AIGC
扫码关注量子位
MLP
全面超越Transformer!清华蚂蚁纯MLP架构,长短程时序预测大提升
性能和效能双飞升
白交
2024-06-12
MLP
Transformer
时序预测
清华&旷视让全连接层“内卷”,卷出MLP性能新高度
用卷积强化全连接层,可实现多处性能涨点
丰色
2021-06-29
MLP
旷视
清华大学
只需2层线性层,就能超越自注意力机制,清华计图团队又有新突破
Self-Attention:我不要面子的吗?
萧箫
2021-05-07
MLP
清华
自注意力机制
谷歌大脑最新操作玩“复古”:不用卷积注意力,图像分类接近SOTA
没错,就是纯MLP架构
萧箫
2021-05-06
MLP
图像分类
谷歌大脑
加载更多
热门文章
材料界AlphaFold来了!微软AI模型登上Nature,还和中国团队合作发现新材料
2025-01-17
OpenAI前CTO最隐秘AI创业:没名字没方向,挖走OpenAI高管
2025-01-17
首个国产版AlphaFold3发布!大分子预测精度超车,在线平台即开即用,推理成本更是白菜价
2025-01-17
5090跑《黑神话》飙到200+帧,英伟达DLSS也用上Transformer了
2025-01-17
视觉语言模型安全升级,还不牺牲性能!技术解读一文看懂|淘天MMLab南大重大出品
2025-01-17