ChatGPT的安全问题正引起高度重视!
近日据韩媒报道,三星电子引进ChatGPT不到20天,就曝出3起内部机密资料外泄事故,涉及半导体设备、测量资料产品良率等相关机密内容。据传这些资料被存入ChatGPT数据库,随时都面临着被泄露的风险。
【资料图】
图源:经济学人
据了解,员工A用ChatGPT查一段代码的bug,而这段源代码与半导体设备测量数据有关;员工B则用ChatGPT优化一段代码,将与产量和良品率记录设备相关的一段代码输入了其中。这些有可能让ChatGPT把三星的机密信息当作训练资料来使用。而员工C则用ChatGPT总结会议内容,虽然不是技术机密,但也可能导致机密外泄。
据三星表示,为了避免这种情况再次发生,他们已经告知员工谨慎使用ChatGPT。如果后面仍发生类似事故,将考虑禁止在公司内网上使用ChatGPT。
目前,韩国方面在跟进,OpenAI尚未回应。
01 ChatGPT 接连出现数据泄露风波小结
事实上这不是ChatGPT第一次出现有关数据安全的新闻。
值得一提的是,早在3月20日ChatGPT被曝出现bug会导致用户对话数据、支付信息丢失泄露。
多名ChatGPT用户表示在自己的历史对话中看到了他人的对话记录。还有不少 ChatGPT Plus用户在Reddit和Twitter等平台发出截图,表示在他们的订阅页面上看到了其他人的电子邮件地址。
3月25日,OpenAI官方发布声明承认,由于开源代码库中存在一个漏洞,这一漏洞可能导致了1.2%ChatGPT Plus用户的支付信息(包含用户姓名、邮件、付款地址、信用卡号最后四位及信用卡过期时间)被暴露。
OpenAI官方对此向其用户和整个ChatGPT社区道歉,并将ChatGPT短暂下线并紧急修补漏洞。
而在3月31日,意大利个人数据保护局宣布,即日起暂时禁止使用聊天机器人ChatGPT,已就OpenAI聊天机器人ChatGPT涉嫌违反数据收集规则展开调查,并暂时限制OpenAI处理意大利用户数据。
个人数据保护局表示,3月20日ChatGPT平台出现了用户对话数据和付款服务支付信息丢失情况。此外平台没有就收集处理用户信息进行告知,缺乏大量收集和存储个人信息的法律依据。
美联社消息称,OpenAI公司当天深夜表示,应政府要求,已为意大利用户禁用了ChatGPT。该公司表示,它相信自己的做法符合欧洲隐私法,并希望很快再次推出ChatGPT。
Sam Altman回应“意大利封杀ChatGPT”
02 融合新AI,隐私安全是关键难题
随着以ChatGPT代表例子的生成式Ai技术越来越热门,越来越多的行业和领域逐步接入生成式Ai技术,Ai将赋能各行各业,带来新的增长动力。
比如智能家居,生成式Ai 由于可以进一步提升智能家居的智能化程度,将成为智能家居生态链的重要组成部分。
就在上个月多个家电企业TCL、海信、美的宣布接入百度“文心一言”!然而一个多月过去了,目前相关家电企业并没有生成式AI应用落地的消息动态。
除了技术落地难的问题,其中还有一个新Ai被诟病的难题就是数据隐私安全问题。
智能家居作为一种基于互联网技术的新型智慧生活方式,其数据安全性和隐私保护是至关重要的。以聊天机器人作为智能家居的一种应用场景,必须具备高度的保密性和隐私保护能力,以确保用户的个人信息不会被泄露。
而包括ChatGPT、文心一言等为例的生成式Ai是一个大规模的自然语言处理模型,需要大量的数据进行训练。如果这些数据来自智能家居设备,那么这些设备的隐私信息可能会被泄露。此外,如果ChatGPT本身存在漏洞或被黑客攻击,那么存储在其中的智能家居数据也有可能被窃取。
此外,ChatGPT可以对大量的自然语言数据进行分析和处理,从而识别出用户的兴趣、偏好、行为等信息。这些信息可以用于个性化推荐、广告投放等用途,但也可能被滥用,侵犯用户的隐私。
这些都是将生成式AI和智能家居融合需要考虑到的难题,可以预见,生成式AI落地到智能家居,将还有很长的路要走。
03 小结
随着生成式AI技术的不断发展和应用,数据隐私安全问题也日益突显。ChatGPT作为代表之一,其安全问题引起了广泛关注。
各行业融合新AI的过程中,隐私安全的保护是关键难题,智能家居也不例外。隐私保护的重要性不容忽视,使用生成式AI的时候如何保证用户数据安全是亟待解决的问题,只有在保障用户隐私的前提下,才能真正实现生成式AI技术的应用落地。
标签: