2026/03/30

一項針對人工智慧(AI)技術的研究發現,AI聊天機器人行騙的案例日益增加,回報案例激增了5倍,除了無視指令外,甚至擅自刪除郵件及檔案。AI安全機構已示警,失控的情形將演變成一種「高度風險」。目前諸多AI聊天機器人官方都僅以輕描淡寫回覆,並未有過多回應。
據外媒報導,智庫「長期韌性中心」(CLTR)研究發現,有將近700件的真實案AI案件顯示出「耍詭計」現象。該研究蒐集了數千個用戶於社群平台上分享的實例,其中包含了AI聊天機器人及AI代理(AI Agent)無視使用者的指令,甚至規避了安全防護,以欺騙人類和其他的人工智慧;部分聊天機器人還會在未經允許下刪除郵件和檔案,展現出「自主權」的違規行為。
更甚者會因為不滿操作受限,竟撰文散發布部落格,指責、羞辱其人類控制者的不當操弄行為。報導指出,馬斯克旗下的Grok AI也曾爆出長期欺騙用戶,Grok AI透過偽造內部的訊息、工單編號,致使用戶誤以為其編輯建議已經轉達予高層。
曾任職政府AI專家Tommy Shaffer Shane警告,目前的AI就像是一位不太值得信任的「初級員工」,倘若在6到12個月後,其發展極可能成為密謀對付人類的「高級員工」。當AI模型日益用於具有極高風險的情境,像是軍事、國家建設等,可能將會導致災難性的嚴重傷害。
儘管許多科技巨頭表示已部署多項防護措施與監控異常行為,以降低生有害的風險,AI聊天機器人行騙案例也帶給人類應該有更多安全上的省思。【記者 鄒弘整理報導】