ChatGPT上岗医疗还有多远?哈佛教授亲测表现接近医生,云知声被曝打造行业版
以医疗作为切入口,快速扩展到其他领域
白交 发自 凹非寺
量子位 | 公众号 QbitAI
国内玩家如火如荼入局ChatGPT,其在各行业出圈也有目共睹。
但具体什么时候能上岗尚且还不明晰,尤其像一些艰深、壁垒性高的行业,比如医疗。
现在,一位哈佛医学院教授,就亲自下场测试ChatGPT的表现。
结果显示,它在45个案例中的39个诊断正确,正确率87%(超过了现有机器诊断率的51%);并为30个案例提供了适当的分诊建议。
他表示,ChatGPT辅助诊断的表现,已经接近医生。既然如此,那什么时候可以上岗?
事实上,这也是目前国内大多数玩家所面临的问题:红利在此,如何率先吃掉?
此前我们也系统性地梳理过复刻中国版ChatGPT背后的技术与生态难度,显然不是短期就可以实现的。
现在已经衍生出来一种新思路:直接打造行业垂直版ChatGPT。
这种方式是否可行?
打造行业版ChatGPT可行吗?
ChatGPT的打造,技术核心绕不开算力、数据和算法三要素。
算力方面,OpenAI背靠微软这头奶牛——拥有28.5万个CPU核心、1万个英伟达V100 GPU,光是训练一个GPT-3,费用就高达460万美元;数据上,GPT系列几经迭代优化,一度惊艳众人的GPT-3就有1750亿参数,而上一版本GPT-2只有15亿参数;算法自然也有多年深厚的积累,否则也不能出现“类人”自主学习特征,而且进一步展现出快速适应多领域、多场景的能力。
再加上生态反哺技术,形成迭代闭环。OpenAI自GPT-3开始就以开放接口的形式,构建起了专属“GPT生态”。据gpt3demo网站统计,目前已有656个调用GPT-3系列模型开发的应用程序。
这样的技术与生态壁垒,决定了复刻ChatGPT并非那么容易。既然如此,垂直版ChatGPT的解决思路也开始在行业中探讨。
首先从技术上来看,他们的核心挑战主要在于以更少的参数,比如以百亿规模参数量,在垂直领域的任务达到或超过ChatGPT的效果。
这可能比复现ChatGPT更难,因为参数数量要小很多,不能仅仅依赖“暴力美学”,还要有高超的模型设计和压缩技巧。
另外一个挑战是数据来源的不同。
像谷歌、微软他们其实有天然的通用数据来源,但专用数据积累不能跟垂直玩家相比。
尤其像医疗等民生行业,专业性强覆盖面广,所需的高质量数据可能并不比ChatGPT小,且大部分数据不是网上可以抓取的。
但对多年深根于此的垂直玩家来说,他们早已构筑起自己的产业生态,有丰富的行业数据和知识积累,为复现ChatGPT奠定了必要的基础。
而且从价值需求来看,垂直行业所代表的价值是实实在在的。像医疗本身需求就不小,一旦ChatGPT落地医疗,所代表的社会价值很大。
以往用户们会习惯性使用的用搜索、APP来帮助诊断自己的疾病,但往往可能收效甚微。
哈佛医学院教授Ateev Mehrotra曾测试,现有的在线诊断器平均正确率仅在51%,而ChatGPT则有87%,因此他认为ChatGPT有可能成为医疗诊断的游戏规则改变者。
为了加速ChatGPT应用落地,从技术难度、价值需求等维度看,打造垂直版ChatGPT是可行的。
而现在国内有AI玩家,已经在这样做了。
云知声ChatGPT行业版
最新曝光的进展,智能语音赛道独角兽云知声正在推进ChatGPT行业版的建设——
以医疗作为切入口,构建ChatGPT医疗行业版,同时基于ChatGPT行业版构建平台,快速扩展到其他领域,再利用领域模型集成MoE(Mixture of Experts)技术,训练得到通用ChatGPT模型。
而这种从专用到通用的思路。其实是云知声一贯的“U+X“做法。在这里,“U”指的通用大模型算法研发及高效训练底座平台;“X”则是应用于多个行业领域的专用大模型版本。
事实上这也正在成为不少企业入局ChatGPT的思路,这样一来,可以利用已有的专用数据优势。
不过也不是那么容易走的,更何况云知声选择的,还是对生成内容质量要求更高的医疗行业作为切入口。
最首要的难题,是要提高医疗知识的可靠程度。ChatGPT最擅长的,就是一本正经地胡说八道。放在现在Bing上聊天搜索、内容生产其实问题不大,用户们也乐在其中。
但应用在行业中,往往让非专业人士难以察觉,这会引发各种风险。因此行业版ChatGPT要杜绝一切胡说八道,尤其像医疗、教育、工业等行业,内容生成要求极高容错率很低,也对数据的质量要求也就更高了。
其次,就是实现行业中的“性价比”。任何一项技术能够大规模落地,都必须要解决「如何以有限的资源,实现效果的最大化」问题。
这也是ChatGPT行业落地的必经之路——模型能以更小的参数规模,达到与ChatGPT同样的效果。这也就给这些企业带来了不小难题。
事实上,云知声也坦言,ChatGPT行业版的参数可能也需要达到百亿量级规模,要做出效果并实现规模化应用挑战也不小。
从某种程度上说,打造行业版的ChatGPT比现在通用的ChatGPT还要更难,但到真正ChatGPT行业落地时,这些问题又都必须得解决。概括来说,就是实现ChatGPT工程化能力。
这是每个躬身入局者,绕不开但必须得过的路。
在此基础上,毫无疑问的是,云知声的选择更难——医疗作为切入口。这是始终被认为是行业壁垒高、专业性强、技术难度制高点的领域,也是为什么相较于其他行业的盛况,医疗AI玩家就显得少之又少的原因。
但一旦将医疗版ChatGPT打通,那么其他领域的实现,包括最后的通用大模型也就事半功倍了。
作为成立于2012年的AI公司,他们一直密切关注AI前沿技术,并积极推动技术产业化应用,包括2012年的深度学习算法升级和产业化应用,到2016年Atlas超算平台、知识图谱和全栈AI技术应用,到现在基于ChatGPT框架的AGI认知技术升级。
同时,在医疗行业有近10年深耕,积累的行业知识、数据和应用,还获得了2019年北京市科技进步一等奖。
在回应是否有信心打造ChatGPT行业版时,云知声方面表示:完全有信心。
前面总结,打造ChatGPT离不开高质量的数据,领先的算法和充分的算力。而对于垂直版ChatGPT还需要更深厚的工程化能力。
从这几方面来看,云知声的确具有行业参考性。
数据方面,近10年来云知声积累了全方位的行业数据,包括面向患者的导诊、预问诊、患者教育和随访系统,也有面向临床的语音病历,病历质控,单病种质控和医疗风险管理系统,已有近400家医院落地使用。据称数据规模已达到了5T,为医疗行业语言大模型提供数据基础。
算法方面,而ChatGPT所代表的认知智能,本身就是云知声核心技术优势。他们构建了国内最大的医疗知识图谱之一。从2019年至2022年,云知声的认知智能技术在国内外相关评测中荣获7冠5亚。其自主研发的医疗预训练语言模型CirBERTa一度登顶中文医疗信息处理挑战榜榜首。
在算力上,云知声超算平台浮点计算能力可达8亿亿次/秒,可为千亿级参数规模模型提供算力保障。
而在大模型工程化方面,云知声已经研发了CirBERTa模型,复现了GPT-2模型,并利用模型压缩和知识蒸馏机制,实现了线上推理效率的近百倍加速,为大模型的广泛应用奠定了基础。
此外作为行业版ChatGPT,内容质量保障也是关键一环。
云知声给出的解决方案是,利用应用在CirBERTa的持续学习和知识嵌入技术,基于已有知识图谱积累,优化ChatGPT模型的知识获取和更新机制。
据介绍,这样一来可以保证ChatGPT回答中的知识正确性,与此同时还可以给出知识溯源信息。
另外,利用云知声业内领先的病历质控技术,可以自动发现生成的病历中的问题,进而自动生成作为ChatGPT核心技术的基于人类反馈的强化学习(RLHF,Reinforcement Learning from Human Feedback)所需的用户反馈数据,加速模型的优化。
谁最先吃掉ChatGPT红利?
最后回到事件本身,此前论及ChatGPT对行业的价值,都是从宏观上的产业生态和模式创新上谈,比如对人机交互、信息分发、内容生产等方面。
如今随着越来越多的垂直企业入局,ChatGPT对企业的意义也呼之欲出——一种全新AGI的技术范式选择:基于“大规模通用基础模型+轻量级行业应用优化”的行业知识整合和问题解决方法。
以往这些场景玩家,对于AI的探索可能处于“看山是山、看山不是山”的懵懂状态,现在出现了一座“更小,而且明知会有路的山”。
ChatGPT所表现出来的“智能”,给他们带来了一种明确的技术方向。
云知声CEO黄伟也深有体会,甚至于相较于AlphaGo,他认为ChatGPT所带来的影响要深厚得多,相当于一场新的“工业革命”。
这场革命最大的优势是,通过自监督注意力机制,能够充分利用海量无监督数据训练通用基础模型,并将感知、认知与生成,用统一框架实现“端到端”的整合,直接从高质量生成结果上去呈现机器智能。机器采取的人工引导的数据驱动学习方法,与人类的逻辑思维方式是完全不一样的,类似飞机所采用的喷气式“空气动力学”机制,与鸟类采取的“扇动翅膀”方式完全不同。
不管是对整个产业,还是单个企业而言,ChatGPT所带来的价值确实让他们不跟不行。
尤其对于一些场景玩家来说,他们还是最有可能吃掉ChatGPT红利的一拨人。
他们有场景有数据、有深厚的行业壁垒,一旦具备ChatGPT能力,就可以率先在行业落地。这是其他玩家所不能及的先发优势。
上一次AI浪潮来袭时,最终也是场景玩家率先吃掉AI红利。只不过现在ChatGPT是直接以技术路径出现,落地速度自然要比以往快得多。
云知声CEO黄伟也给出了个明确的时间点:
年内就会实现成功应用落地的方案。
- 硅谷投资人张璐:马斯克星舰打开太空经济赛道2024-12-04
- 清华新VLA框架加速破解具身智能止步实验室“魔咒”,LLM内存开销平均降低4-6倍。2024-11-30
- 智源发布心脏模型!超实时仿真人体生理功能,速度提升180倍2024-11-29
- 乌镇最火AI议题,原来答案藏在这份报告里2024-11-25