各品牌AI PC陸續推出新品,各種新功能、AI體驗相當吸睛,使用者不需透過雲端,就能在自己的裝置上執行AI相關應用,不過,這就代表資料夠安全、隱私不會洩漏嗎?
「AI PC其實需要比一般PC更多的資安防護。」趨勢科技營運長Kevin Simzer接受《今周刊》專訪時,打破了上述迷思。他指出,AI PC的運作方式讓資料可以留在電腦上,不透過雲端來存取和處理資料,的確可以提高隱私安全性和AI運行速度,但事實上,資料留在裝置端,一樣有洩漏風險,比如設備或內網存在安全漏洞,或遭人惡意竊取。
另外,AI應用程式本身也可能存在漏洞,在缺乏適當防護下,使用者很可能在不知情的狀況下被誤導或不經意地洩露個人隱私資訊。以大型語言模型來看,它的運作方式是將一堆數據集中到模型上,數據從分散變為集中,是第一個風險。再來,使用者會下指令問問題,駭客也有機會在你不知道的情況下,竄改問題或提示,就連回答也有可能被惡意修改,駭客找到漏洞對模型下手,而使用者卻完全不知情,採用遭修改後的回答,是第二個風險。
想防止這些問題發生,得有相應的資安防護,Simzer表示,趨勢科技今年針對AI PC推出新服務,例如AI App防護可防止AI相關應用遭到篡改、遭意外或惡意存取敏感資料,通常代工廠會自己研發AI模型,並與結合趨勢的防護軟體,直接安裝在電腦裡,防止模型被竄改,給予誤導、錯誤、詐騙的回應。
AI惡意內容防護則是防止使用者遭AI生成或修改的惡意內容侵害;另外,趨勢科技的資安軟體還能辨識電腦中的機敏資料,給予安全性建議,像是以前資安軟體進行掃描後,只能知道這是一張照片,現在已經可辨識出這是護照、有個人資料。
Simzer點出,企業使用大型語言模型,還經常面對一個問題:怎麼防止人們從中獲得他不該獲得的資訊?比如員工可以透過AI模型詢問財務數字,但這些數字其實只有特定部門主管才有權限看到。
有效阻絕不當資料存取
過去企業內部資料可透過設定管理權限來限制查看者,若使用大型語言模型,同樣也需要一個機制,讓對的資料給對的人。例如趨勢科技的零信任方案ZTSA,可以分析往返公共與私人生成式AI之間的提示和回應,透過分析,ZTSA可以知道誰向哪裡發送了什麼訊息,以及誰從哪裡看到了什麼訊息,並將這些數據發送到資料安全態勢管理平台,讓客戶看見生成式AI應用的使用情況和數據流向、設置政策執行,以阻擋透過生成式AI相關應用的不當資料存取。
不過Simzer強調,企業得先清楚定義自己的AI政策、數據存取控制權,資安產品只是幫助這些政策的落實。
相關新聞:生成式AI下的資安戰略: 「資安即國安」與「AI即國力」
AI PC對於資安公司來說,其實也有可利用之處,因為更強的運算效能,意味著可將一部分的雲端AI功能下放到裝置端來執行,且善用NPU所帶來的額外運算效能,可以提供更多防護。Simzer舉例,大多數人使用電腦打開Email,其實資料都存在雲端,但現在趨勢科技能在裝置端就對Email完成更多分析,辨認哪些包含機敏資訊,應該保留在裝置上、不與雲端同步。
隨著主權AI概念興起,企業更希望將資料放在自建的資料中心運行,當越來越多企業有建置AI資料中心的需求,又該如何做好資安防護?
私有雲護資安 硬體效能不能偏廢
對此,Simzer也給出解方。他指出,針對資料中心,趨勢科技推出Trend Vision One SPC資料中心資安解決方案,主要用於企業私有雲或資料中心,可改善資料隱私權、即時分析、更快速的防範,同時不犧牲硬體效能。
他解釋,現在企業自建資料中心所面對的問題與過去稍有不同,首先,資料管理要透過數據處理器(DPU)來做運算,讓CPU跟GPU發揮最大的用途,所以在資安產品需要能夠在DPU上做監測、防護,才能不影響原本的裝置效能。再來,AI資料中心將面對各種不同的資料型態,包括如文字、語音、圖片、影音等,不同的資料型態需要不同的技術去做分析,因此趨勢科技與NVIDIA合作,利用Morpheus、NIM等技術,保護AI工作負載。
「我們是少數同時利用AI,也保護AI運作環境的公司。」Simzer表示,今年下半年,趨勢科技將陸續推出全新解決方案來保護AI、保護使用者免於因AI遭濫用而產生的風險,並在既有及全新的產品和服務中導入AI。