防止代码泄露事件重演!Samsung禁止员工使用ChatGPT等生成式AI,还将开发内部AI工具

关注我们的 WhatsApp 频道, TikTokInstagram 以观看最新的短视频 - 开箱,测评与第一手新闻资讯。

Samsung已在内部备忘录告知员工,停止使用 ChatGPT 和 Bard 等生成式 AI 工具,理由是担心会带来安全风险!

早前,Samsung在引入ChatGPT不到20天内,就出现了三起与之相关的泄密事件。近日,Samsung在内部备忘录中告知员工,暂时禁止使用ChatGPT或其他生成式人工智能,避免类似的情况出现

内部备忘录显示,Samsung担心传输到Google Bard和Microsoft Bing等人工智能平台的数据存储在外部服务器上,难以检索和删除,最终可能会泄露给其他用户。

同时备忘录也显示,Samsung进行了一项内部使用AI工具的调查,其中有高达65%的受访者认为此类服务存在安全风险。

值得一提的是,为了避免内部信息泄露,Samsung还计划开发自己的内部AI工具。据悉,该AI将被用来翻译、总结文件和辅助软件开发,并协助研究如何阻止敏感公司信息上传至外部服务器。

此外,Samsung在备忘录中提到,将要求内部员工认真遵守安全指南,否则可能会导致公司信息泄露,违者进行纪律处分,甚至包括解雇。足以见得,Samsung在防范AI泄露信息方面的决心。

更多科技资讯,请继续守住TechNave中文版!

资料来源

大家来评论

防止代码泄露事件重演!Samsung禁止员工使用ChatGPT等生成式AI,还将开发内部AI工具