您的位置:首頁 > 游戲 >

天天熱議:10分鐘騙430萬,AI詐騙終于要爆發(fā)了

當我們在談論AI強大和便利時,不可避免地會對其潛在的風險和危害感到擔憂和害怕。

而現(xiàn)在,最讓我們擔憂的事情終于開始大規(guī)模發(fā)生了。


【資料圖】

這兩天,有關“AI詐騙”的事件沖上了微博熱搜,引起了不少關注。

這件事發(fā)生在福州市一位科技公司的法人代表郭先生身上。

4月20號中午,郭先生突然接到了“好友”的微信電話。

對方表示自己正在外地競標,需要430萬保證金,并且要公對公轉賬(公司對公司的轉賬),所以想要借郭先生公司的賬戶走個賬。

因為對方是通過微信電話的方式交流的,而且從郭先生的視角來看,這位朋友無論從面容還是聲音來看都沒什么不對勁的地方。

所以基于對朋友的信任,他沒有猶豫的就給自己的朋友轉賬了。

——于是這位郭先生就在短短10分鐘之內被騙走了430萬元。

這件事情說新鮮其實也不算新鮮,因為一直以來電信詐騙的案例不在少數(shù)。

而這兩年國家反詐中心也一直在推廣和宣傳反詐活動,通過加強大家的反詐意識,也的確有效的減少了此類事情的發(fā)生頻率。

當然還是有很多被騙的人

但這事兒可怕就可怕在——

騙子們利用了“AI技術”來實施詐騙,并且達到了以假亂真的程度。

從這件事情來看,騙子極有可能是先盜取了對方好友的微信,再利用AI換臉技術和AI聲音技術佯裝好友實施詐騙。

相信不少人已經(jīng)對兩項AI技術非常眼熟了。

事實上,從去年開始,有關AI換臉的視頻就已經(jīng)在網(wǎng)絡上風靡了一段時間。

而隨著AI技術的不斷突破,到現(xiàn)在這個技術已經(jīng)更為成熟,甚至還能做到像這件詐騙事件一樣,和對方進行實時互動。

曾風靡B站一段時間的大司馬換臉視頻

對于AI換聲技術來說,我想最近大火的“AI孫燕姿”也是一個很好的例子。

通過AI技術合成的人聲,基本上和原聲有著90%的相似度,不仔細聽根本聽不出區(qū)別;

更重要的是,這項技術也沒有任何門檻可言——只要能夠收集到足夠多對方的聲音片段,你就能生成任何想要說的話。

而這個技術,對于電話詐騙可是再合適不過了。

或許很多人都具有一定的反詐騙意識,但是在如此高明的“新型詐騙”面前,我想也有不少人會被這種手段所欺騙。

所以在這里我還是要提醒大家,如果近期有朋友要向你借錢,并且金額還不小的話,一定要慎重慎重再慎重。

說個題外話——

十分鐘,就能讓朋友轉幾百萬,這樣的朋友那里找啊(不是)

標簽:

相關閱讀