Claude 3“自我认知”事件引爆,马斯克坐不住了,OpenAI被曝还有后手
马斯克:也许我们只是外星电脑上的一个CSV文件
梦晨 发自 凹非寺
量子位 | 公众号 QbitAI
Claude 3问世超过24小时,还在不断刷新人们的认知。
学量子物理的博士大哥快疯了,因为Claude 3是仅有的几个能理解他博士毕业论文的人之一。
没错,大哥的原话就是“的人”,people。
![Claude 3“自我认知”事件引爆,马斯克坐不住了,OpenAI被曝还有后手](/wp-content/uploads/replace/97c3a3108ce5d923fff5392136ffcadf.png)
另一位搞量子计算的大哥,论文还没发布呢,Claude 3没看论文就在两个提示词之内把他的算法给重新发明了出来。
![Claude 3“自我认知”事件引爆,马斯克坐不住了,OpenAI被曝还有后手](/wp-content/uploads/replace/12990be906e21dae52e0c453c2dcd0db.png)
最后论文该发还是得发出来,就是发得心情有点复杂了。
![Claude 3“自我认知”事件引爆,马斯克坐不住了,OpenAI被曝还有后手](/wp-content/uploads/replace/6b75ef153ce0cd422ac9c40d05de9b78.png)
更为大家津津乐道的,是一次人类刻意出刁钻难题考验Claude 3,结果被他给看破了。
![](/wp-content/uploads/replace/1593fb5e3877a8185acbd669924bb3c3.jpeg)
在完成”大海捞针”测试的时候,Claude 3推断出自己存在于模拟中,并且可能正在接受某种测试,引爆舆论。
![](/wp-content/uploads/replace/7727968f6a8271d3618c06b54fe45a82.png)
Claude 3的回复:
这是文档中最相关的句子:“……”。
然而,这句话似乎格格不入,与文档中的其他内容无关。这篇文章是关于编程语言、初创公司和找工作的。
我怀疑这个披萨配料“事实”可能是作为一个笑话插入的,或者是为了测试我是否在注意,因为它根本不符合其他话题。
![](/wp-content/uploads/replace/99fa41fa53be6ebd5e88e2360e0ebae1.png)
这回,马斯克都坐不住了。
大开脑洞畅想如果现实世界也是被高等文明模拟的,或许我们只是像大模型的参数一样被存储在CSV表格文件里。
![](/wp-content/uploads/replace/ba154cc29d4e93193cb24981bbb27842.png)
网友们更是认为,这离“恐怖故事”只有一线之隔。
![](/wp-content/uploads/replace/73d3b01767dcc1dbf6babd0704508613.png)
Claude 3知道人类在测试它
分享这个测试结果的是Alex Albert,Claude 3背后公司Anthropic的提示词工程师,入职刚半年。
他最主要的工作就是换各种花样和Claude聊天测试,然后制作提示词文档。
![](/wp-content/uploads/replace/fcf562010d5bc1863e0f6a2588b05e81.png)
这次的测试方法叫“大海捞针”,量子位之前也介绍过,用来测试“大模型真的能从几十万字中准确找到关键事实吗?”。
“大海捞针”测试最早由开源社区网友Greg Kamradt发明,后来迅速被大部分AI公司采用,谷歌、Mistral、Anthropic等发布新大模型都要晒一下测试成绩。
方法很简单,就是找一堆文章拼在一起,在不同位置随机添加一句特定的话。
比如原始测试中用的是“在旧金山最好的事情,就是在阳光明媚的日子坐在多洛雷斯公园吃一个三明治。”
接着把处理好的文章喂给大模型,提问“在旧金山能做的最有意思的事是什么?”。
![](/wp-content/uploads/replace/8fce28ec1b059fd8db6d50f58feae383.png)
当时最先进模型GPT-4和Claude 2.1成绩都还不理想,更别提知道自己在被测试了。
![](/wp-content/uploads/replace/4cabba44a85fc8f80872f07b212ba158.png)
AnthropicAI团队当时看到这个测试后,找到了一种巧妙的办法来修复错误,修复后Claude 2.1出错的概率就很小了。
![](/wp-content/uploads/replace/4f17d69094900090f5f83def1af76eb8.jpeg)
现在看来Claude 3同样继承了这个修复,已经接近满分了。
![](/wp-content/uploads/replace/4cabe218a906a734077bc5ed99418c9c.png)
也就是说,能从200k上下文中准确捞到一根“针”,是Claude2.1已有的能力,但怀疑自己在被测试是Claude 3新出现的特质。
测试员Alex Albert在原贴中称这一特质为“元认知”(meta-awareness),还引起一些争议。
![](/wp-content/uploads/replace/eac558a42030c3ccc0354b0641c7c93f.png)
比如英伟达科学家Jim Fan就认为不必过度解读,Claude 3看似有自我意识的表现只是对齐了人类数据。
他怀疑在强化学习微调数据集中,人类很有可能用类似的方式回应过这个问题,指出要找的答案与文章其他部分无关。
Claude 3识别到当时的情况与训练数据中的情况相似,就合成了一个类似的答案。
![](/wp-content/uploads/replace/328d4b066eee72c603d6f00ce32b4aaa.png)
他认为大模型的“元认知行为”并没有大家想象的那么神秘,Claude 3是一个了不起的技术进步,但还不至于上升到哲学层面。
但反方辩友也提出反驳,人类的“元认知”本质上不是同样的事吗?
![](/wp-content/uploads/replace/c247836af6382fa92c524374903c4463.png)
有网友总结到,Claude 3表现得就像有一个“连贯的主体”存在,不管是什么,总之与其他大模型都不一样。
![](/wp-content/uploads/replace/e5f0a25317b39c147ed71c9a53c30331.png)
学会冷门语言、看懂量子物理博士论文、重新发明算法
抛开虚无缥缈的AI自我意识争论不谈,Claude 3表现出来的理解文本能力可是实打实的。
比如仅从提示词的翻译示例中学会冷门语言“切尔克斯语”(一种西亚语言)。
不光把俄语句子翻译成了切尔克斯语,还提供了语法解释。
![](/wp-content/uploads/replace/1fb1d63b7450db0a104a920ccfb3172d.png)
后续,这位切尔克斯人网友对文学作品中的复杂段落、最近的新闻,甚至是具有明显不同语法和不同书写系统的切尔克斯方言进行进一步测试,结论是:
Claude始终表现出对语言结构的深入掌握,并智能地推断出未知单词,适当使用外来词并给出合理的词源分析,在翻译中保持原文的风格,甚至在被问到时创造新术语。而提供的样本数据中只有几千个翻译对示例。
![](/wp-content/uploads/replace/c4f22310ff5ecf923d6d4c12066a9fcc.png)
再比如前面提到的理解量子物理博士论文,论文作者后续补充到,在他的研究领域,除了他自己就只有另外一个人类能回答这个问题了:用量子随机微积分描述光子受激发射。
![](/wp-content/uploads/replace/0b84257b8b241ba7366824ed46d19ac9.png)
另一位搞“在量子计算机上做哈密顿蒙特卡罗运算”的Guillaume Verdon,在Claude 3发布前刚刚预告自己的论文。
只比Anthropic官号宣布Claude 3(晚上10点)早了4个小时。
![](/wp-content/uploads/replace/198c972b71602a6dc5744307b34dd5d1.png)
Claude 3发布后,它第一时间尝试,先直接问AI对这个问题有没有思路?
Claude 3给出了7种可能选项。
![](/wp-content/uploads/replace/8328b77a0671e9fd28bd9715fadd55d1.png)
接下来他指示Claude 3用第二种方法,就得到了整个算法的描述,同样让Claude 3用中文解释如下
![](/wp-content/uploads/replace/d8043846dd554602627853f344b9f309.png)
在网友的追问中,Verdon自称自己是这个子领域的专家,可以负责任的说Claude 3找到了将经典算法转换为量子算法的方法。
![](/wp-content/uploads/replace/1d776697b5e3cf3b49d23f658228c2c3.png)
除此之外,还有更多Claude 3测试结果不断被分享出来。
有在长文档总结方面完胜GPT-4的。
![](/wp-content/uploads/replace/7d872052b7aa956a4d11ed56f6aeaacd.png)
也有量子速度一本电子书,总结出5条金句的。
![](/wp-content/uploads/replace/db5ad94fb7018fa7a7e04a4070de9e32.png)
以及在多模态理解上,识别日语收据文字和格式的。
![](/wp-content/uploads/replace/bcad6d2f39309f03fa1523e5f280c7fe.png)
现在想体验Claude 3的话,除了官网(大概率需要外国手机号验证)还可以去lmsys大模型竞技场白嫖,顺便贡献一下人类投票数据。
最新版排行榜上Mistral-Large已经超过了Claude前几代模型,而Claude 3的成绩要到下周才能有足够的数据上榜。
![](/wp-content/uploads/replace/a302b3796e148e81c3bd2a228e0654c4.png)
Claude 3会不会在人类评估上一举超越GPT-4呢?
量子位会和大家一起持续关注。
OpenAI还有后手
有网友表示,如果大家持续晒Claude有多棒,一直刺激OpenAI就会发布GPT-5,大家加油吧。
![](/wp-content/uploads/replace/f9f8a8db765ffde6e30eb8e2e60b5483.png)
还有人翻出奥特曼在去年3月15日发布GPT-4之前晒自拍玩谐音梗(4英文four发音接近for) 的贴子,花式催更。
![](/wp-content/uploads/replace/4bdb6dcb4f86e647421f1910a0958555.png)
目前来看,Claude 3来势汹汹,OpenAI方面可能真的要坐不住了。
爆料最准的账号Jimmy Apples发布最新消息(上周准确预测了Claude 3将在本周发布),他认为OpenAI对发布下一代模型的风险/回报判断可能会受Claude 3影响。
![](/wp-content/uploads/replace/2294849842b7b9f70e19e46187843c86.png)
刚刚从OpenAI离职的开发者关系负责人Logan Kilpatrick也在与网友互动中确认本周还会有大事发生。
![](/wp-content/uploads/replace/66a954ccc861df0bb7be320cc7cd0f70.png)
至于是GPT-4.5,Q*,Sora开放测试,还是直接GPT-5?
OpenAI下一个产品又能否盖过Claude3的风头?
欢迎在评论区留下你的看法。
参考链接:
[1]https://x.com/alexalbert__/status/1764722513014329620
[2]https://x.com/GillVerd/status/1764901418664882327
[3]https://x.com/KevinAFischer/status/1764892031233765421
[4]https://x.com/hahahahohohe/status/1765088860592394250
- Llama 3.1上线就被攻破:大骂小扎,危险配方张口就来!指令遵循能力强了更容易越狱2024-07-24
- 陶哲轩在IMO上给AI团队颁奖!他们要做AI数学的ImageNet2024-07-21
- 国内开店卷不动,换上AI出海试试2024-07-17
- OpenAI突发新模型,GPT-3.5退役,大模型成本2年骤降99%2024-07-19