香港警方最近接到一起涉案金額高達兩億港元(約1.84億)的詭異詐騙事件,事件中最離譜的是,受騙公司是被AI給空手套了白狼,兩億轉出去了一週,才發現事情似乎不對。

(示意圖)

(示意圖)

反觀詐騙者這邊,一人分飾多角作案,用AI生成的假人開了個視訊會議的時間,就把兩億給拿到手了…

(示意圖)

(示意圖)

事情曝光後,港媒稱其為香港損失最慘重的「變臉」詐騙案,同時它也是首次涉及AI「多人變臉」的詐騙案。經由媒體報道,AI時代的新型詐騙方式,還真看得人背脊發涼…

根據香港警方提供的訊息,此次事件報案人是某家跨國公司在香港分公司的職員。

1月中旬,香港分公司這邊收到英國總部首席財務官的訊息,說是要進行一項機密交易。於是,香港團隊內部很快組織了視訊會議,邀請多名財務部職員參與。

(示意圖)

(示意圖)

一切都和平時的正常流程無異,職員按照高管們的安排,先後15次將2億港元轉到指定的賬戶。

但在轉賬結束後,香港分公司向英國總部詢問時,總部人卻一頭霧水:啊?也沒人說讓你們給總公司轉賬啊???

講清楚前因後果大家才發現,根本就不存在所謂的「機密交易」一事,參與視訊會議時大家通過攝像頭看到的高管形象,都是用AI製作出來的冒牌貨。詐騙人使用以假亂真的視訊開了個會,2億港元竟然就這麼輕鬆到手…

(示意圖)

(示意圖)

事後調查發現,詐騙人在開始行動前,早就運用強大的搜尋能力,把公司在網上的相關公開資料挖了個底朝天。

這些資料包括公司高層的媒體採訪、視訊平臺的相關內容,並且詐騙方很容易就拿到了英國總公司那邊高層管理人員的形象和聲音,利用Deepfake(深度偽造)技術,製作出高層人員的發言視訊。

(圖源:央視新聞)

(圖源:央視新聞)

詐騙人在視訊會議當天直接使用提前製作好的視訊,而由於視訊會議的內容基本上是總公司的高管們單方面向其他人下達命令,會議期間並沒有暴露真相。

職員們眼睜睜看著幾位「虛假高管」在鏡頭裡互相討論、下達命令,於是信以為真,輕輕鬆鬆就把賬給轉了出去…

(示意圖)

(示意圖)

香港警方表示,目前案件還在調查,現階段還沒有逮捕任何嫌疑人。

捲走2億港元的詐騙人彷彿憑空出現,完事後又帶著鉅款人間蒸發…AI新式詐騙的驚天騙局,讓看到新聞的讀者都覺得有些恐怖,表達了對新技術的擔憂:

畢竟誰也沒想到,在AI技術大規模落地為普通人所用的前夕,竟然已經有人先在詐騙領域幹了一票大的…

不過真要講起來,此次詐騙事件中的「Deepfake」技術,前幾年就已經引起過轟動。

Deepfake指的是「深度偽造技術(簡稱「深偽技術」)」,是基於AI人工智慧技術進行人體圖像的合成。目前使用AI的深度學習,深偽技術已經能達到還原度很高的換臉效果,再結合語音偽造技術,就能做到「造人」。

事實上,這項技術打出道起就聲名狼藉,早在2019年,有基於該技術的應用APP推出,聲稱能「一鍵脫衣」:上傳任何女性的照片,再實時生成非正常照片。

而在該技術逐漸應用到視訊領域後,大量偽造名人的換臉私密錄影出現,並在網際網路大範圍傳播。很多知名女星都成為換臉視訊的受害者,但因為類似視訊很難追查到源頭,維權變得異常艱難。

隨著深偽技術的不斷「進步」,如今也有人在商業上非法使用Deepfake技術來謀取利益。

比如上個月,泰勒絲的臉被做進了烤箱的引流廣告,視訊裡「泰勒絲」親自出面,說要贈送給粉絲3000套炊具套裝。如果有人相信視訊中的宣傳,點選連結就會自動跳轉到家居用品售賣平臺。

由此看出,AI發展速度遠超想象,爆發性的技術進步會改變每個人的生活,但如今愈演愈烈的AI詐騙風險卻不容忽視。

央視新聞報道過類似的詐騙案例,陝西西安財務人員張女士與老闆視訊通話,老闆要求她轉賬186萬元到一個指定賬號。因為老闆明確表示非常著急,加上聲音還有視訊都跟老闆本人一模一樣,張女士直接按照要求把錢轉了過去。

轉賬之後,張女士按照規定將電子憑證發到了公司財務內部群裡,出乎意料的是,群裡的老闆看到資訊後,向她詢問這筆資金的來由。

張女士報警求助後,警方立刻對接反詐中心、聯繫相關銀行進行緊急止付,這才保住了大部分的被騙資金。

面對AI詐騙的入侵,國內已經發布過AI反詐宣傳片。去年年底的一段反詐宣傳片中,母親和遠隔萬里的女兒視訊通話,得知女兒需要錢後,準備馬上就把一萬五打過去。

此時門鈴一響,氛圍頓時變得有些恐怖。本該遠隔萬里的女兒,卻突然出現在家門口。

片尾謎底揭曉,大家才發現,視訊中的「女兒」只是AI製造出的假象。「AI女兒」和真人的面容與聲音完全相同,科幻片中的驚悚橋段當場成真。

不少網友當時就表示看到頭皮發麻,誰能想到, AI運用到詐騙上,會產生如此恐怖的結果。

再回到在香港發生的案子,2億規模的案子已經昭示著,大規模、大金額的AI詐騙離我們不再遙遠。或許不久的未來,普通人也需要像防範電信詐騙那般,防範身邊各種形式的AI詐騙。

(圖源:@央視新聞)

(圖源:@央視新聞)

針對此次2億港元AI詐騙事件,香港警方提出了一些有效的防範措施:

– 如果覺得聊天內容不太對勁,可以放大窗口查看光線和陰影是否正常,人像邊緣有沒有模糊。

– 一些AI視訊是提前錄製好的,可以要求對方做出點頭等即時動作,觀察對方的實時反應。

– 提問一些只有你和對方知道的私人問題或是家庭問題,來進一步核實身份。

– 警惕任何親友提出的「打錢」要求。

– 小心、謹慎使用面部識別的授權。

(示意圖)

(示意圖)

「眼見不一定為實」、「有圖有視訊也不一定是真相」的時代已經來臨,普通人今後可能會受到難以想象的衝擊。

技術更新已經催生了更多、更復雜的詐騙手段,對我們普通人來說,提前了解才能有心防範。也希望能有打擊AI詐騙的技術早日普及,畢竟新技術出現的初衷,本該是讓我們過上更美好的生活。

Source

Visited 11 times, 1 visit(s) today
Subscribe
Notify of
guest
0 Comments
Most Voted
Newest Oldest
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x