首页
资讯
数码
智能车
智库
活动
MEET大会
AIGC
扫码关注量子位
MLP
全面超越Transformer!清华蚂蚁纯MLP架构,长短程时序预测大提升
性能和效能双飞升
白交
2024-06-12
MLP
Transformer
时序预测
清华&旷视让全连接层“内卷”,卷出MLP性能新高度
用卷积强化全连接层,可实现多处性能涨点
丰色
2021-06-29
MLP
旷视
清华大学
只需2层线性层,就能超越自注意力机制,清华计图团队又有新突破
Self-Attention:我不要面子的吗?
萧箫
2021-05-07
MLP
清华
自注意力机制
谷歌大脑最新操作玩“复古”:不用卷积注意力,图像分类接近SOTA
没错,就是纯MLP架构
萧箫
2021-05-06
MLP
图像分类
谷歌大脑
加载更多
热门文章
全球OCR最强模型仅0.9B!百度文心衍生模型刚刚横扫4项SOTA
2025-10-17
波士顿动力狗gogo回来了!“五条腿”协同发力
2025-10-17
阿里发布Qoder CLI,可在终端一键实现AI编程
2025-10-16
库克在抖音卖iPhone,M5芯片却偷偷上MacBook Pro,网友:没有Pro/Max,你咋敢?
2025-10-17
新豆包模型让郭德纲喊出发疯文学:(这班)不上了!不上了!不上了!!!
2025-10-16