當地時間6日,美國聯邦調查局(FBI)向公眾發出警告,提醒人們防范利用“深度偽造”(Deepfakes)技術制作虛假色情照片或視頻所實施的騷擾或勒索行為。
FBI:謹防利用Deepfakes實施騷擾或勒索
FBI在聲明中稱,技術的不斷進步使人工智能(AI)生成的內容在質量、定制性和易用性方面不斷提高,這也導致一些受害人報告他們的照片或視頻遭到了惡意篡改。
(資料圖片)
FBI表示,惡意行為者通常從某人的社交媒體賬戶、互聯網和受害者本人獲取內容,制作出具有曖昧性并看似與受害者相似的內容,而后通過社交媒體、在線論壇或網站進行傳播。根據該機構的說法,針對這些受害者制作的內容通常是出于獲取更多個人信息、經濟利益或騷擾他人的動機。
數據顯示,自今年4月以來,FBI收到的“色情勒索”報告數量有所增加。犯罪分子通常以虛假色情照片或視頻威脅受害者付款,以免這些內容遭到公開。一些犯罪分子甚至還會要求受害人發送自己真實的照片或視頻。
專家呼吁:關注人工智能發展所產生風險
FBI在聲明中還指出,公眾在互聯網發布或是通過社交媒體、約會軟件或其他在線平臺進行通訊時應當保持警惕。聲明寫道: “雖然一些圖片和視頻在發布或分享時看似無害,但它們可能為惡意行為者提供大量可用于犯罪活動的內容。”
此外,FBI還建議公眾監控未成年人在互聯網上的活動,經常搜索自己在互聯網上的公開可見信息,設置社交媒體賬戶的隱私保護功能,并使用復雜密碼以及多重驗證以保護賬戶安全。
該機構還表示,人們在接受社交媒體上的好友請求時應保持謹慎,不要向任何陌生人提供金錢或其他貴重物品。用戶應研究平臺的隱私政策,并對一些“超出已知行為模式”的已知賬戶保持警惕,因為這些賬戶可能已經被黑客所入侵。
在FBI發出警告之際,全球人工智能領域的專家剛剛在上周發布聯名信,呼吁關注人工智能發展所產生的風險。超過350名業界領袖共同指出,減輕人工智能所造成的風險應當成為一個“全球優先事項”。
Deepfakes初亮相:被用于換臉色情視頻
2017年12月,Deepfakes被曝光后首次出現在大眾視野。一位網名為“deepfakes”的Reddit論壇用戶利用人工智能技術,將色情片女主角的臉換成了《神奇女俠》主演蓋爾·加朵。
“deepfakes”發布了一系列換臉女明星的色情片視頻,Deepfakes這個網名因此在媒體報道中,成為了這類換臉假視頻的專有名詞:即把“深度學習”一詞改寫為“深度造假”。
短短幾個月內,deepfakes賬號已經擁有了超過8萬名關注者。
據當時報道,這種換臉視頻制作簡單,不需要專門的影視工作室,是這種視頻在網上迅速激增的主要原因。
2018年2月,Reddit出手,封禁了deepfakes色情視頻,并關閉了網站上的deepfakes內容社區。
AI詐騙成功率100%?不要被Deepfakes愚弄
今年5月,一條AI詐騙成功率接近100%#的話題沖上微博熱搜。一個AI換臉的視頻,讓福建某科技公司的法人代表在10分鐘內就被騙走了430萬。
與此同時,國外也發生了一起AI相關詐騙,一封附上谷歌CEO視頻的郵件,讓不少YouTube博主們下載了帶著危險病毒的文件。
這兩起詐騙事件都有著深Deepfakes的身影。這是一項誕生了6年之久的換臉大法,如今AIGC技術的大爆發,更使得制作難以識別的deepfake視頻越來越容易。
分析稱,Deepfakes技術可以以極低的成本快速部署,并且所需的專業知識或計算能力也很低。它們可以采用生成的圖像、語音克隆或AI生成的圖像、音頻和文本組合的形式。
現在,隨著大量AI應用程序的出現,幾乎任何人都可以使用Deepfakes的工具。隨著AI技術變得越來越先進,它帶來的危險越來越值得關注。
關鍵詞: