南韓媒體《Economist》報導,南韓科技巨擘三星員工疑似因使用AI聊天機器人ChatGPT,而分別在不同事件中洩露公司機密。
報導指出,三星裝置解決方案及半導體業務部門發生三起事件,出自員工將公司機密資訊輸入ChatGPT而外流。外洩的資訊包括半導體設備量測資料庫、生產/瑕疵設備相關軟體,以及一份公司會議語音轉錄的文字紀錄摘要。報導指出,一名軟體開發工程師在資料庫程式開發期間發現程式碼錯誤,於是將整份程式碼複製貼到ChatGPT對話中,以尋找臭蟲及解決方案。
三星電子原本因資訊安全禁止員工使用ChatGPT,該公司考慮開發可被公司監管的自有AI聊天機器人服務,3月11日才在員工要求下解除禁令,但三星仍呼籲員工不得分享機密資訊。
這起事件可能讓外部用戶透過詢問ChatGPT而得知三星機密。報導指出,三星電子緊急啟動資訊保護指施,將輸入ChatGPT的資訊量限制在每個問題1024 byte以下,並展開內部調查。三星並警告員工,未來若再有類似事件將不再允許公司內部網路使用ChatGPT。
OpenAI也曾在公司FAQ網頁告誡用戶,不應在ChatGPT對話中分享敏感資訊。這些被上傳至ChatGPT的資訊,會被當成聊天機器人AI模型的訓練資料。
簡單易用又強大的特性讓ChatGPT在全球爆紅,但其大量蒐集用戶資訊令主管機關憂心。上周義大利資料主管機關以ChatGPT蒐集用戶個資,又未能辨識未成年用戶為由,要求停用ChatGPT,直到OpenAI說明修改蒐集個資的作法。德國當局也說考慮跟進。
熱門新聞
2024-10-05
2024-10-07
2024-10-07
2024-10-07
2024-10-07
2024-10-07
2024-10-07