Hinton、吴恩达、LeCun 通通被点名,马斯克躺枪 | 马库斯连击批AI

赖可 发自 凹非寺
量子位 报道 | 公众号 QbitAI

“著名AI批评家“马库斯又开批了。

Geoff HintonHinton、吴恩达、LeCun、马斯克通通被点名。

他说,Hinton关于深度学习的说法可能会导致放射科医生紧缺;
吴恩达预测AI能解决开放式问题是错的;
LeCun说强人工智能会出现到现在还八字没一撇;

不止这些,他还说《经济学人》误导报道、IBM沃森过度承诺……

他举这些例子,都为了印证自己的观点:AI宣传中存在大量的信息误导。他认为,这怪研究者和记者,他们都喜欢强调突破性,却不谈论局限性。

量子位把长文重新梳理,看清老马这回到底在批些啥。

Hinton导致放射科医生缺乏?

先来弄清楚马库斯是怎么批评深度学习教父Geoff Hinton的。为什么说是他要对放射科医生的紧缺负责?

是这样的,2016年,Hinton在论坛上打了一个比喻.

放射科医生就像”已经在悬崖边缘的狼,却还没有回头看,没有发现下面已经没有陆地了”。

Hinton建议,现在就要停止培养放射科医生。

两年过去了,马斯库的结论是:Hinton的话惊吓了很多放射科系,结果可能是负面的;目前世界上很多地方都缺放射科医生。

Hinton的话和放射科医师缺乏,这两者之间究竟有啥关系呢。一时之间还真的有点难弄明白。

不过我们可以回到当时现场,看一看Hinton究竟是在什么样的情境下说了怎样的话

在2016年机器学习和智能市场的论坛上,Hinton被提问:你认为最激动人心的事情会是什么?

他就说了上面的那个比方,并且说,

完全显而易见的是,五年内,深度学习能够比放射科医生做的更好,因为它可以变得更有经验。也许是十年内。

AI取代放射科医师的争议,量子位以前写过文章:吴恩达被diss了

AI医生难实现

至于AI医疗,马库斯还批评了IBM沃森在2014年过度承诺,如今交付不足。

IEEE SPectrum的相关报道指出,在2014年,沃森公司宣布了要研发AI医生的目标。公司承诺,首个健康护理的商业服务,将在18到24个月实现。

而在2016年,和MD安德森癌症研究所等机构合作的项目却受挫。提供的服务被认为不可靠。

沃森的一些专家也意识AI在医疗方面的局限性。比如其卫生保健和生命科学研究副总裁Ajay Royyuru,他表示

诊断不是要去的地方,这是专家们做得很好的事情。这是一项艰巨的任务,无论您用AI做得如何,它都不会取代专家。

前不久,在北大医学院举行的,医生和AI工作人员共同出席的“智慧医疗,潜力与挑战论坛上”,双方对于AI在医疗中扮演什么样的角色也做了类似的讨论。

腾讯优图实验室医疗AI总监郑冶枫表示,他们目前的关注的场景大多还是AI辅助医生。

医生培训非常重要,AI是一个新的工具出来,不可能不培训直接用。医生需要用个半年一年,摸透它的脾气了,什么情况下,会更准确,而不是简单的把AI的结果加一点信息,需要一个熟悉的过程。

而在使用流程上,他们也会做相关设置,避免医生过度依赖AI。

有时候,在具体场景中,比如当天医生就直接把AI的结果交上去了,这肯定是不行的。我们在流程上是可以做的,医生必须读一遍片子,读完了,我再给出我的答案。而不是我直接给出答案,你在这上面改,这个容易被医生用偏。这样可以避免一些误用。

而清华大学临床医学院院长董家鸿则提出了“人机协同”的视角,

通过人机协同的机制,看协同后产生的效果。基层医生,给了他AI,然后看人机协同之后的诊断率是不是超过原来的水平。

任何一个高明的医生的诊断也不可能完全正确,有一个容许的出错率。在这样的条件下,再去评价AI在基层医疗的效用和价值。

批评NLP,怼吴恩达、LeCun

马库斯的批评还集中在NLP方面。首当其冲当然是Hinton,他4年前说过的关于自然语言的话,也被拿出来批评了

2015年,Hinton在接受卫报时曾表示:谷歌正处于开发出有逻辑能力,能自然对话,甚至调情的算法的边缘

4年后,马库斯说

我们距离能够进行自然对话且无需人工干预,确保连贯性的机器还有很长的路要走,没有现成的系统能可靠地推理物理世界。

(反正你的总结都很对)

新旧搭配,他还举了一个最近媒体误导的例子。怎么误导的呢?

是这样,《经济学人》最近对open AI的句子生成系统GPT-2进行了一次主题为2020年的采访,并将人机对话刊登出来,标明了”未经编辑”,给人的感觉是,AI已经可以进行如此连贯自然的对话了,甚至显出了幽默感。

实际上,这种效果是编辑对文本进行编辑和过滤的最终效果,AI对每一个问题给出五个回答,人工从中进行筛选连缀成文。

(有时候,一个细节对理解事实很关键。所以希望大家,以后对所有认真做事实和细节核查的媒体多一丢丢尊重啦~)

马库斯还批评了吴恩达、LeCun 对于AI的能力增长做了过于乐观的判断,比如吴恩达曾经认为AI未来能够解决开放式问题,LeCun 说强人工智能会很快出现。

恩……还有,这种批评名场面怎么能少了马斯克。

他批评了马斯克预言自动驾驶汽车在2020年实现不切实际。

“AI批评家”马库斯

感受了一通批评大拼盘,是不是觉得滋味一言难尽。

他个人网站的介绍是:

加里·马库斯,科学家,畅销书作者,企业家,AI逆势者。

作为批评的惯例,怎能只破不立?换个胃口,看一下他提出了六条“意见”。马库斯提出,在研究者和报道者谈论AI时,都应该考虑到下面六个问题。

1、人工智能系统实际上在做什么?“阅读系统”真的阅读吗?

2、结果有多普遍?

3、有没有感兴趣的读者可以自己探索的演示?

4、如果说人工智能系统比人类更好,哪个人类,好多少呢?(相比之下,低薪工人缺乏良好表现的动力可能无法真正探究人类能力的极限)

5、实际上,成功完成特定任务可以使我们迈向建立真正的AI多远?

6、系统的鲁棒性?无需大量重新培训,它是否可以与其他数据集一样好用?AlphaGo在19×19的板上可以正常工作,但是需要重新训练才能在矩形板上运作。缺乏转移正说明了这一点。

有网友问,

这个马库斯很重要么?他对机器学习或者AI的贡献是啥?

网友答曰:
他的贡献可以总结为,写了一些文章,怀疑AI的人读起来会开心。

马库斯写了很多批评AI的文章,量子位之前也都介绍过:

这十大挑战,摆在DL面前:马库斯长文质疑深度学习

“众矢之的”马库斯回应14个问题,将深度学习质疑到底

马库斯:DeepMind新出的机器心智网络不错,但有误导性

但是好像有一句话怎么说来着不因人废言,不因言废人(对的,孔子说的)

网友也说了,谈一谈对文章的不满意比攻击作者更好。

网友评论

尽管我同意马库斯说媒体过度宣传AI,以及研究者应在防止错误信息做得更好,但是他的方式不合理。他似乎沉迷于寻找神经网络(NN)研究者的漏洞。用这种方式,和他进行有益的对话很困难,而且NN研究者也会有防御心态。

除此以外,符号学AI太过简单,不能产生AGI,这意味着用NN来完成是有帮助的。研究不是辩论。

文章里援引的例子大多来自2015到2017年的AI炒作期。回溯来看,那是一个有很多突破的时期,比如DQN,AlphaGo,Resnets,有很多目标检测和GAN执行上的突破。人们刚开始基于这些进展进行推断,我不怪他们。
没错,进展变得缓慢,但是所有的这些最终会实现。

你知道码字至此的我,内心的OST是啥?

(长这么大,从来没有梳理某个人的长篇批评弄这么久!!)

你看完了有啥感受?请多多评论吧,如果有那么一点点收获,也算欣慰了。(手动比芯芯)

参考链接:

https://w.url.cn/s/AGxr2q4
https://worldin.economist.com/article/17521/edition2020artificial-intelligence-predicts-future
https://www.youtube.com/watch?v=2HMPRXstSvQ&t=29s
http://garymarcus.com/bio/bio.html

版权所有,未经授权不得以任何形式转载及使用,违者必究。