企業引入ChatGPT輔助開發,卻傳出機密外洩。
三星(Samsung)雖然容許使用 ChatGPT,卻傳出有員工因為直接將內部程式碼輸入至 ChatGPT,導致機密資料外洩給OpenAI。
綜合媒體報導,此次共涉及3起外洩事故,2起跟半導體設備有關,另外1起跟會議內容有關。三星回應指出,已加強ChatGPT的相關安全設置,並將進一步加強內部監管和員工培訓。
綜合媒體報導,由於擔心資料外洩,三星起初禁止使用ChatGPT,不過自3/11起,三星開放其半導體和裝置解決方案部門(DS)使用,而裝置體驗部門(DX)仍禁用該服務。
但三星導入ChatGPT不到20天,近日便曝出機密資料外洩事件,主要源於員工在使用ChatGPT時的誤用或濫用,其中包含3起事件,其中兩次涉及半導體設備,另一次涉及會議內容。
其中一次事件,是三星半導體事業暨裝置解決方案(Device Solutions)部門的員工於操作半導體測試設備下載軟體的過程中,發現複製有問題,即把有問題的代碼複製到ChatGPT中尋找答案,但卻讓ChatGPT把三星的機密資訊當作訓練資料使用。
另一事件亦為DS部門所發生,同樣也是尋求ChatGPT來優化代碼,只不過此代碼是涉及晶片良率。
第三起則是讓ChatGPT記錄會議內容,雖然不是技術機密,但亦可能導致會議內容外洩。
外媒報導,由於三星員工工在使用ChatGPT查詢問題並驗證答案時,不慎將這些資訊添加到ChatGPT的學習資料庫中。若有其他使用者在ChatGPT上提出相關問題,可能導致三星企業機密外洩。