趨勢
人工智能(AI)與生成式技術(如 deepfake)令影像與聲音合成變得更容易、更逼真。隨之而來,不法分子開始利用 AI 假冒名人、公司高層或政府官員的形象與聲音進行詐騙 — 這類詐騙不但視覺聽覺上更具說服力,且因其「可信外衣」,令受害人更易放鬆警覺,導致龐大金錢或資料損失。
什麼是 AI 假冒名人騙案
AI 假冒名人騙案(亦可稱 deepfake 假冒詐騙)指騙徒利用人工智能技術,合成或修改影音、聲音,製作出看似由名人、企業高層或政府官員發出之講話、指令或短片,並以此誘惑、威嚇或誤導目標人物作出金錢轉移、投資或洩露敏感資料。其關鍵在於「假象可信」——受害人看到熟悉或具權威性的臉孔與語音,便傾向相信訊息內容,因而按指示行動。香港警方已注意到本地出現以 deepfake 技術配合其他詐騙手法的個案,並在相關公報與宣傳中提醒公眾提高警覺。
警方案例與例子
香港/區域協調偵辦案例
香港警方在近年偵辦多宗涉及以 AI 或深偽技術促成的詐騙或冒充案件,當中包括利用合成影像或聲音作為誘餌,配合虛假投資平台或偽冒公司指令,導致受害人遭匯款或投資損失。警方已於公開資料中指出,深偽技術已被不法分子應用於詐騙宣傳及偽造「具權威性」的推介影片。
大型企業被騙的真實報導(示意性)
媒體報道及國際協作案件指出,有企業員工在視像會議中被假冒高層(或聽到類似其聲音)下令匯款,結果數額龐大;部分案件牽涉跨境洗走贓款,調查需與海外執法單位協作。香港政府與警方在國際交流中亦曾提及此類風險。
以名人名義推介假投資或慈善
騙徒可能把合成的名人短片放到社交平台或即時通訊群組,宣稱該名人代言某投資計劃或慈善捐款,並放置連結誘導受害人入金。這類假冒名人以「權威背書」引誘大眾,屬常見模式。香港監管與金融教育機構已發出相關提醒與教育短片。
AI假冒名人騙案的手法 — 騙徒如何運作?
AI 假冒名人詐騙常見的手法為多層次混合攻擊,通常包括以下步驟與技術:
1. 收集目標素材:騙徒先從公開平台(新聞片段、社交媒體影片、演講、採訪)擷取名人或目標對象的聲音及影像素材,作為訓練數據。警方指出,公開網絡上的影音內容為生成深偽素材提供了原料。
2. 生成合成影音/聲音:利用生成式 AI(如 deep learning 模型)合成逼真的臉部動作、口型同步與聲音調性,構造出名人似乎在講述或指示某事項的影片或錄音。合成度高時肉眼與耳朵難以立即辨真偽。
3. 混合社交工程(Social engineering):騙徒將合成短片或錄音與釣魚連結、偽造電郵、假冒平台通知或電話威脅結合,營造可信脈絡(例如偽造公司內部背景、偽造銀行文件),使受害人放下戒心。
4. 時間壓力與緊迫性手法:常見於企業假冒情境中,騙徒要求「立即匯款」、「保密處理」,以急促時間壓力迫使員工跳過正常核實程序。警方及金融機構均提醒:遇到任何匯款急令應以既定內控核實。
5. 跨境洗錢路徑:成功騙取款項後,騙徒會透過一連串跨境轉移、加密貨幣兌換或偽裝交易把資金迅速抽走,增加追回難度;本地執法機構常需與外地單位協作追蹤資金。
警聲百二秒|如何防範AI(人工智能詐騙)騙案?
為防範AI騙案,民眾應該多重核實身份、保持警覺,不輕信語音或影片信息,並提升防詐騙意識,以免成為高科技詐騙的受害者。在無綫電視與香港警務處警察公共關係部聯合製作的節目《警聲百二秒》第43集中,TVB藝人陳楨怡(Celina)、阮政峰(Hero)及曾展望(GM)以情景模擬了新型AI騙案。
劇情描述Celina正在網路上拍片宣傳自己將自資出版的寫真集,所以決定公開眾籌,購買的讀者還可以決定Celina的造型,每本寫真承惠$1,000,一次過購買十本還有親筆簽名。Hero作為Celina的頭號粉絲不虞有詐,立即打開網站欲一次過購買十本Celina寫真。警方伊人Sir及Chilli Sir現身提醒,購買寫真的網站為假網站,指出現時人工智能技術日新月異,騙徒(曾展望飾)只要有冒充對象的聲音和外貌的資料,就可以製作假的圖片和假的影片,公眾人物大有機會被人冒充,要提防影片是否為合成影片。
警方續指現時所有的合成影片,都是預先錄影的,當你接到視像電話的時候,可以叫對方在鏡頭前做一些動作,例如頭往上、往下動,觀察對方會否出現異樣,最重要的是不要輕易相信網上的資訊,凡事都要經過仔細Fact Check,提防騙子!如有任何懷疑,記得致電防騙易熱線18222。
5大防範AI假冒名人騙案建議 — 個人與企業層面
對「視聽證據」保持懷疑,採取「多渠道核實」與「不以單一訊息做重大決定」的守則。以下為具體可操作的步驟,並以香港官方建議為依據:
1. 任何涉及金錢或敏感資料的視像 / 音頻要求,必須雙渠道核實
- 若視像會議或影片中有「高層指示」要求匯款/更改賬戶,務必透過已知電話號碼、親自聯絡或面談方式再次確認;不要只依視像或錄音。警方強調跨渠道核實是防範 BEC/深偽詐騙常用而有效的控制措施。
2. 提升內部控制:雙重授權與分權核准
- 企業應設立「雙人核准」或「分權核准」機制,任何大額或非常規付款均需至少兩位授權人確認;若因為緊急而跳過程序,需保留書面理由並追蹤審核。立法會與警方報告亦多次提出類似建議。
3. 提高媒體識讀與員工培訓
- 定期對員工進行深偽(deepfake)識別與網絡詐騙防範培訓,教導辨別可疑影音的線索(口型不同步、影像重影、背景不自然、要求匯款的語氣與流程不符等),並鼓勵即時上報可疑內容。警方已將深偽納入宣傳與教育內容之中。
4. 技術防護:加強通訊與驗證機制
- 使用受信任的視像會議平台、啟用會議密碼與等候室功能、避免公開分享會議連結。對重要指令(如更改付款賬戶)採用數位簽章、加密電郵或電話確認等安全通道。金融監管機構亦提醒用戶留意釣魚電郵與假冒訊息的危害。
5. 保留證據與預設應變計畫
- 一旦發現疑似深偽內容,先下載保存原始檔案、截圖及相關通訊記錄,以便交由 IT/法務和執法機關分析。企業應有事件回應流程,包含暫停可疑交易、通知銀行與報案等步驟。
如何處理 — 若懷疑已成為AI假冒名人騙案受害者
1. 立即停止任何依該訊息進行的金錢往來或資訊傳送。若匯款已完成,馬上聯絡銀行說明情形,請求凍結或協助追蹤。香港警方與 ADCC 可提供協助與諮詢。
2. 保存所有相關證據:包括影片檔案、錄音、電郵標頭(email header)、訊息截圖、匯款記錄、已知對方身份資料與通訊時間。這些對警方取證與追查資金流向至關重要。警方資料指出,保存完整證據能大幅提高偵查效率。
3. 向警方報案與通知相關監管機構:可透過香港警務處或反詐騙協調中心(ADCC)報案,並同時通知金融機構或平台(如銀行、支付平台或社交媒體平台)以便啟動凍結或下架處理。政府亦建議在懷疑跨境轉賬時,盡速與警方及銀行合作。
4. 啟動內部應變流程與外部通報:企業應通知董事會/管理層、法務、IT 與公關部門評估風險並決定對外回應(對外聲明、用戶通知等),同時配合警方調查。香港立法與執法機構已強調公私部門協作的重要性。
面對 AI 假冒名人騙案,市民與企業應採取“懷疑而核實”的態度:不以單一視聽證據決定重大財務或資訊行動,凡涉及金錢或敏感資料的指示必須經過多渠道核實與內部雙重確認。政府、銀行與執法機關已把深偽詐騙列為重點防範項目,並呼籲公眾如遇可疑個案立即保存證據、聯絡銀行及向警方報案(可通過反詐騙協調中心/ADCC 及警隊相關熱線求助)。只有公私部門與市民共同提高警覺、採取適當防護,才能將 AI 假冒名人騙案的風險降到最低。
常見問題 FAQ
A: 沒有單一視覺或聽覺線索能完全保證真實,但可留意:口型與語音是否有輕微不同步、面部光影不自然、頭部或背景出現扭曲、語氣與受訪場合不符。若影片用以要求金錢或個人資料,應直接聯絡該名人或其公關單位核實,並通過官方渠道查證。香港警方建議「對視聽證據採取懷疑態度,並以多渠道核實」。
A: 任何涉及付款或賬戶變更的指示都應遵守公司既定核實程序,例如電話回撥至已知號碼、雙人核准或面談確認等。禁止僅以單一視聽訊息作為付款依據。建立並落實這些內控能有效防止因深偽而致的款項流失。
A: 若屬被冒用之名人或機構,應迅速聯絡平台要求下架,並發出官方澄清聲明以減低混淆及進一步被利用的風險。保存原始檔案與流傳紀錄,並將情況通知警方處理。政府與執法機關建議及早通報並與平台配合。
A: 截至目前,香港並無一條專門以「deepfake」命名的新罪名;但現行的刑事罪行(如詐騙、偽造文書、欺騙行為等)可用於追究惡意使用 deepfake 的不法行為。政府在相關會議與文件中指出,會以現有法律及執法手段應對深偽相關犯罪,同時強化公私部門協作與公眾教育。