字體:小 中 大 |
|
|
|
| 2023/05/04 10:43:56瀏覽41|回應0|推薦0 | |
三星將禁止旗下員工使用生成式AI工具。(圖/達志影像美聯社) 三星電子(Samsung Electronics)先前曾允許旗下工程師使用人工智慧ChatGPT作為輔助工具,藉此快速修復原始程式碼的錯誤,沒想到一個月內就發生3起使用ChatGPT導致會議數據洩漏的事件,因此三星決定禁止員工使用AI,並正在準備自己公司內部用的AI工具。 外媒報導,有三星員工因為使用ChatGPT、Google Bard及Bing等生成式AI工具,結果導致機密外洩。(圖/達志影像美聯社) 據《彭博》報導,三星已經將新政策告知內部員工,因為公司擔心傳輸至AI平臺的數據資料會被儲存到外部伺服器,導致敏感代碼難以取回或被刪除,最終有可能外洩給其他用戶,所以未來將禁止員工使用這種生成式的AI工具。 此外,三星上個月還進行了一項關於內部員工使用AI工具的調查,結果其中有65%的人認為這種工具存在安全風險。公司的備忘錄稱,4月初,有三星工程師將內部原始程式碼上傳到ChatGPT,結果不小心洩漏出去,不過目前仍不清楚這些外洩的機密代碼包含什麼內容,三星也拒絕回應。 三星電子要求員工在私人裝置上使用AI工具不要輸入任何可能外洩公司機密的資料。(圖/達志影像美聯社) 據了解,事件起因是有三星半導體員工提交專有程式的原始程式碼給ChatGPT,以修復程式碼錯誤,卻無意間將最高機密應用程式的代碼洩漏給其他公司的 AI。 報導指出,三星電子將禁止用公司電腦、平板及手機使用生成式AI工具,也禁止在連線內部網路時使用相關平臺。當然,這一項規定並不影響三星對外販售給消費者的手機和筆電等商品。 三星還要求在個人裝置上使用ChatGPT的員工,不要輸入跟公司有關的資訊,以及任何可能洩漏智慧財產的私人資料,如果員工違反規定,可能遭到公司開除。 更多 TVBS 報導 |
|
| ( 不分類|不分類 ) |











