輸錯一句話後果慘!專家示警「5類資訊」千萬別對ChatGPT說

A-
A
A+

生活中心/綜合報導

AI聊天機器人成為現代人生活中不可或缺的工具。(示意圖/翻攝自unsplash)

▲AI聊天機器人成為現代人生活中不可或缺的工具。(示意圖/翻攝自unsplash)

AI聊天機器人成為現代人生活中不可或缺的工具,從寫報告、查資料、安慰情緒到生成圖片,幾乎無所不能。不過,與AI互動時輸入的資訊、上傳的圖片,真的安全嗎?外媒近期就整理出「絕不能與AI聊天機器人分享的五類資訊」,直言一旦輸入,恐讓自己深陷危險之中。

AI浪潮掀起引起科技改朝換代,雖增添不少便利,卻也潛藏風險,過去就有不少專家提醒,隱私安全問題,像是史丹佛大學人工智慧研究員珍妮佛.金(Jennifer King)受訪時指出,「當你將某些東西輸入聊天機器人時,你就失去了對它的所有權。」她提醒,這些平台可能會將資料用於訓練模型,甚至被工程師審閱。

《紐約郵報》近期也整理出5類資訊絕對不要交給AI(示意圖/freepik)

▲《紐約郵報》近期也整理出5類資訊絕對不要交給AI(示意圖/freepik)

《紐約郵報》近期也整理出5類資訊絕對不要交給AI:

1. 身分識別資訊

社會安全號碼、護照號、出生年月、地址、電話號碼等都可能被視為「可識別個資」,即使平台宣稱會「紅字遮蔽」,但最好的做法仍是完全不要輸入。

2. 醫療檢查結果

AI無法適用醫療保密原則,若需AI協助解讀報告,專家建議應先手動刪除姓名、病歷號等資料,只保留數據本身。

個資或是就醫資訊等等,可能被視為「可識別個資」,即使平台宣稱會「紅字遮蔽」,但最好的做法仍是完全不要輸入。(示意圖/pexels)

▲個資或是就醫資訊等等,可能被視為「可識別個資」,即使平台宣稱會「紅字遮蔽」,但最好的做法仍是完全不要輸入。(示意圖/pexels)

3. 金融帳號資料

銀行與投資帳戶資訊,一旦外洩,或是有駭客入侵,將可能遭人監控、盜領資金,風險極高。這類資訊應由金融業的專業管道處理。

4. 登入憑證

切勿向AI透露帳號密碼,即使是為了讓它幫你執行任務也不建議。安全做法是使用密碼管理工具儲存這些資料,此外也可以開啟雙重認證,提升安全性。

5. 公司機密與內部資料

許多人會利用AI撰寫商業郵件或文件,但若不慎將客戶資訊或公司內部內容輸入聊天機器人,也可能構成資安風險。企業應使用具保護機制的企業版AI,降低洩密可能。

專家提醒,民眾在與AI聊天後,可適時地手動刪除對話紀錄,Anthropic資安長Jason Clinton日前則進一步說明,多數AI公司會在30天內清除「已刪除」資料保護用戶隱私。

延伸閱讀