BlackBerry的最新研究表明,全球有75%的企业目前正考虑或已实施禁止在工作场所使用OpenAI旗下的ChatGPT等生成式人工智能(AI)应用。其中,61%的企业表示这些禁令将是长期或永久性的,主要原因是出于对数据安全、隐私以及企业声誉的风险考虑。此外,83%的企业还表示,他们担心不安全的应用会给企业的IT环境带来网络安全威胁。
研究结果还揭示,企业内部的技术领导层在推动这些禁令的实施方面起着领导作用,甚至在近一半的企业中,CEO也在其中发挥了主导作用。ChatGPT作为OpenAI于2022年11月30日推出的新型AI聊天机器人工具,能够根据用户需求快速生成文章、故事、歌词、散文、笑话,甚至代码,同时还能回答各类问题。仅在推出两个月后,它的月活跃用户就达到了1亿人,成为历史上增长最迅速的消费者应用之一。
尽管ChatGPT等生成式AI工具能够显著提高工作效率,但它们的不可预测性以及可能泄露用户数据的风险也备受关注。今年4月初,有外媒报道称,三星引入ChatGPT不到20天就发生了3起涉及ChatGPT的事故,其中2起与半导体设备有关,1起与会议内容有关。
今年5月初,由于员工将敏感代码上传到ChatGPT,三星决定限制员工在部分办公室使用ChatGPT和谷歌旗下的生成式AI工具Bard,以避免机密信息泄露的风险。同样在5月底,一份内部文件披露,苹果公司也出于保密考虑,限制员工使用ChatGPT、Bard以及其他外部AI工具。
除了三星和苹果,摩根大通、德意志银行、Verizon、亚马逊等多家公司也纷纷限制员工使用ChatGPT。随着ChatGPT引发广泛关注,对于这类生成式AI工具的兴趣不断上升,但在将其应用于工作场景时,仍然存在许多待解决的问题。
作品采用:
《
署名-非商业性使用-相同方式共享 4.0 国际 (CC BY-NC-SA 4.0)
》许可协议授权