三星被曝因ChatGPT泄露芯片机密!韩媒惊呼数据「原封不动」直传美国,软银已禁止员工使用

ChatGPT曾出数据漏洞

明敏 萧箫 发自 凹非寺

量子位 | 公众号 QbitAI

三星引入ChatGPT不到20天,就发生3起数据外泄事件?!

其中2次和半导体设备有关,1次和内部会议有关。

消息一经释出马上引发各界热议,尤其是韩国方面。韩版《经济学人》的文章中直接写道:

这导致半导体设备测量资料、产品良率原封不动传输给了美国公司。

韩媒方面甚至表示,因为三星员工直接将企业机密信息以提问的方式输入到ChatGPT中,会导致相关内容进入学习数据库,从而可能泄漏给更多人。

据三星表示,为了避免这种情况再次发生,他们已经告知员工谨慎使用ChatGPT。如果后面仍发生类似事故,将考虑禁止在公司内网上使用ChatGPT。

看起来,三星这次又搞了个大新闻啊。

有网友将此戏称为:xx网盘存公司内部文件(doge)。

不过,也有网友发现了这件事诡异的地方。

他们是怎么知道数据被泄露的?ChatGPT这么快就发布了新版本吗?

而当《经济学人》记者向三星方面确认消息真实性时,相关负责人表示由于是公司内部事故,所以很难给出明确回复。

目前,跟进该消息的主要是韩国媒体,所谓聊天内容是怎么被加入到学习数据库的,细节方面还有待推敲。

所以,真如报道所说,这些数据会被ChatGPT用于训练、给更多人看到?

企业上传到ChatGPT的数据究竟是否安全?

3.1%打工人在给ChatGPT喂企业数据

三星这次引起热议,关键点在于将内部半导体数据上传给了ChatGPT。

3月11日,三星的半导体事业暨装置解决方案事业部(DS)部门允许员工使用ChatGPT,随后20天内就发生了三起将公司内部半导体数据上传到ChatGPT的事件:

其中,员工A用ChatGPT帮自己查一段代码的bug,而这段源代码与半导体设备测量数据有关;员工B想用ChatGPT帮自己优化一段代码,就直接将与产量和良品率记录设备相关的一段代码输入了其中;

员工C则先用AI语音助手Naver Clova将自己的会议录音转成文字,再用ChatGPT帮他总结一下会议内容,做成摘要……

目前,三星内部已经采取了“紧急措施”,限制与ChatGPT沟通的话题每个内容上传量不超过1024 bytes,还透露出要开发公司内部AI的意向。

然而,同样值得注意的是,这些消息大多为韩国方面在跟进,OpenAI尚未回应。

不过,在OpenAI上周更新的数据使用说明中确实有提到,对于非API产品如ChatGPT、DALL-E,平台确实会使用用户数据来进一步提升模型效果。

如果是API类产品,则确定不会使用用户提交的数据。

而让ChatGPT上传企业数据的事儿,并不止三星一家公司员工干过。

据统计,不少企业员工都正在将公司数据直接传给ChatGPT,让它帮忙处理。

Cyberhaven统计了160万名员工使用ChatGPT的情况,发现:

3.1%的打工人都会将企业内部数据直接输入给ChatGPT分析。

Cyberhaven是一家数据分析服务提供商,他们开发了一个保护企业数据的方法,能帮助公司观察和分析数据流向、实时了解数据丢失原因。

他们发现,随着ChatGPT的应用率越来越高,给它上传企业数据的打工人数量也越来越多。

光是一天之内(3月14日),每10万名员工就平均给ChatGPT发送了5267次次企业数据:

那么这其中又有多少敏感数据呢?

数据显示,在员工直接发给ChatGPT的企业数据中,有11%都是敏感数据。

例如在一周内,10万名员工给ChatGPT上传了199份机密文件、173份客户数据和159次源代码。

上传数据是一回事,并不意味着它就会被使用,但数据安全又是另一回事了。

ChatGPT最近爆出的泄漏用户信息bug,让不少企业开始重视这一点。

ChatGPT曾出过数据泄漏bug

实际上,为了规避数据泄露风险,已有不少企业明确禁止员工使用ChatGPT。

如软银、日立、富士通、摩根大通等都发出了相关通知。

同样是芯片大厂的台积电也在几天前表示,员工使用ChatGPT时不准泄露公司专属信息,注意个人隐私。

还有意大利个人数据保护局也宣布,禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息。

之所以会引来这些恐慌,一部分原因还得从ChatGPT自身说起。

3月末,ChatGPT被曝出现bug会导致用户对话数据、支付信息丢失泄露

这一度导致了ChatGPT短暂关闭。

OpenAI的回应中表示,这一漏洞可能导致了1.2%ChatGPT Plus用户的支付信息(包含用户姓名、邮件、支付地址、信用卡号最后四位及信用卡过期时间)被暴露了约9个小时。

漏洞还导致了用户的对话主题及记录能被别人看到,如果里面包含隐私信息,则有泄露的风险。

OpenAI CEO山姆·奥特曼随即回应,这个bug来自开源库,他们使用这个库在其服务器中缓存用户信息。

目前具体受到漏洞影响的用户数量还无法明确,OpenAI表示已通知受影响用户其支付信息或被曝光。

但这种回应无法让各方满意。如意大利个人数据保护局就提出,OpenAI没有就收集处理用户信息进行告知,缺乏收集和存储个人信息的法律依据。

由此要求OpenAI公司必须在20天内通过其在欧洲的代表,通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。

如今,随着三星被曝因ChatGPT发生数据泄露,也引发了进一步讨论。

比如不少人在使用ChatGPT时,确实没有很强的隐私保护意识。

以及如今随着越来越多企业使用ChatGPT,相关使用规则也需要进一步明确。内置了ChatGPT的微软产品,会不会也要禁止?

对此,你怎么看呢?

参考链接:
[1]https://economist.co.kr/article/view/ecn202303300057
[2]https://n.news.naver.com/article/243/0000042639
[3]https://www.yna.co.kr/view/AKR20230401033500003
[4]https://www.cyberhaven.com/blog/4-2-of-workers-have-pasted-company-data-into-chatgpt/
[5]https://www.cnet.com/tech/services-and-software/chatgpt-bug-exposed-some-subscribers-payment-info/
[6]https://twitter.com/hirokinv/status/1641766639694913537

版权所有,未经授权不得以任何形式转载及使用,违者必究。