久久午夜精品2区,国产成人精品免费视频大全软件,香蕉精品视频,黄色试看片

?
您好 ,歡迎您來到邯鄲之窗! 

“AI換臉”詐騙,怎么防?

來源:央視新聞編輯:保存2023-05-26 10:54:06
分享:
  點開直播間乍一看,賣貨的竟是當紅女星。再定睛一看,“明星”其實是使用人工智能(AI)實時換臉技術的普通主播。他們冒充明星藝人,只為增加賣點,助力賣貨……

  近期,“AI換臉”的應用范圍越來越廣,但存在濫用之嫌,甚至有人利用AI換臉實施犯罪,例如偽造不雅視頻、換臉詐騙等。前不久,就有一男子因AI“偷臉”,10分鐘被騙430萬元。

  如此以假亂真,讓人防不勝防。“AI換臉”的法律邊界在哪?普通人又該如何防范?

  公司老板遭遇AI換臉詐騙

  10分鐘被騙取430萬元

  近日,內蒙古包頭警方發(fā)布一起利用AI實施電信詐騙的典型案例。

  來自福建的郭先生是一家科技公司的法人代表。今年4月,他的好友突然通過微信視頻聯(lián)系他,稱自己的朋友在外地競標,需要430萬元保證金,想借用郭先生公司的賬戶走賬。

  基于對好友的信任,加上已經視頻聊天“核實”了身份,郭先生在10分鐘內,先后分兩筆把430萬元轉到了對方的銀行賬戶上。

  事后,郭先生撥打好友電話才得知被騙,原來騙子通過AI換臉和擬聲技術,佯裝好友對其實施詐騙。“當時是給我打了視頻的,我在視頻中也確認了面孔和聲音,所以才放松了戒備。”郭先生事后說。

  AI換臉冒充明星帶貨

  律師:或涉嫌侵權

  除了佯裝“熟人臉”實施詐騙,AI換臉還可能出現(xiàn)在直播帶貨中。最近,網上出現(xiàn)了一些“換臉直播”教程,教程發(fā)布者聲稱實時變臉軟件可以幫助用戶輕松“變臉”,極大地助力引流賣貨。

  在一個展示換臉直播效果的視頻中,使用者把名為“成龍”的模型載入相關軟件后,攝像頭前的人在直播畫面中就有了與成龍相似的五官,但臉型和發(fā)型還保持原樣。

  記者發(fā)現(xiàn),使用者歪頭或變換表情時,五官動效切換得自然順滑,只有手掌從臉前劃過時,出現(xiàn)了比較明顯的破綻。

  發(fā)布者展示換臉為“成龍”的實時效果和軟件界面(視頻截圖)

  北京岳成律師事務所高級合伙人岳屾山表示,換臉直播用于公開傳播可能涉嫌侵犯相關明星藝人的肖像權。如果涉及直播帶貨等商業(yè)行為,會成為加重情節(jié)。

  岳屾山解釋,只要未經肖像權人同意,在直播中通過技術手段把自己的臉換成了明星的臉,就是對明星肖像的侵權。根據(jù)不同情況,承擔的后果可能不同。即便只是娛樂,不涉及盈利行為,也屬于侵權。如果把明星肖像用于帶貨直播,屬于是商業(yè)行為,在賠償數(shù)額上一定會給予考慮。如果主觀惡性、過錯程度比較大,且因此獲利,賠償數(shù)額可能會更高。

  記者注意到,一些使用換臉技術的直播并不會直接提到相關明星藝人的名字,但也不會主動聲明或者否認。岳屾山認為,該行為涉嫌欺詐或是虛假宣傳,讓公眾誤以為就是明星在帶貨。如果貨品本身質量不好,或者主播在帶貨過程中說的話或行為導致公眾對被換臉的明星產生負面評價,明星可以主張名譽權的侵權責任。

  AI技術存在濫用風險

  務必保持防范意識

  為規(guī)范人工智能發(fā)展,去年12月,《互聯(lián)網信息服務深度管理規(guī)定》正式發(fā)布,明確了數(shù)據(jù)和技術管理規(guī)范。其中提到:深度服務者對使用其服務生成或編輯的信息內容,應當添加不影響使用的標識。智能對話、人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內容功能的服務的,應當進行顯著標識,避免公眾混淆或者誤認。

  近期,也有平臺和企業(yè)發(fā)布了“關于人工智能生成內容的平臺規(guī)范暨行業(yè)倡議”,明確禁止利用生成式人工智能技術創(chuàng)作、發(fā)布侵權內容,包括但不限于肖像權、知識產權等,一經發(fā)現(xiàn),平臺將嚴格處罰。

  對于個人而言,除了在形形色色的“明星臉”中保持清醒,避免陷入虛假宣傳,更重要的是面對花樣翻新的AI詐騙,必須保持防范意識。

  保護信息,提高警惕。不要輕易透露自己的身份證、銀行卡、驗證碼等信息,不要輕易人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻等;

  多重驗證,確認身份。如果有人自稱“熟人”“領導”等通過社交軟件、短信以各種理由誘導匯款,或涉及網絡轉賬交易行為時,務必通過電話、見面等多途徑核驗對方身份,不要未經核實隨意轉賬匯款;

  如不慎被騙或遇可疑情形,請注意保護證據(jù),并立即撥打96110報警。

  整治AI換臉

  要用“法”打敗“魔法”

  “短短10分鐘,被騙430萬元”“換臉冒充當紅女星帶貨,賺得盆滿缽溢”……這種“換臉”術和擬聲術,讓人防不勝防。如此種種,無不說明換臉術的濫用,已經對公共利益構成威脅。

  整治AI換臉,當用“法”打敗“魔法”。

  這個法,是方法、辦法的法。有人說,防騙最有效的一招就是不信,無論對方怎么“換”、怎么變、怎么翻著花樣騙,就是“不聽不信不轉賬”。最關鍵的是,優(yōu)化“打法”,升級高招,用更有效的方法“破防”。“魔高一尺,道高一丈”,面對騙子的新招數(shù),我們的反詐術、防騙方法更要優(yōu)化,總結出富有成效的好方法,并做好宣傳普及,構筑反詐防騙的全民陣線。

  這個法,也是法規(guī)、法律的法。此前,一款主打AI換臉的App很火,“只需一張照片,演遍天下好戲”。但很快,在監(jiān)管部門約談后,這款App下架,原因很簡單,如此換臉侵犯了公民的肖像權。去年12月,《互聯(lián)網信息服務深度管理規(guī)定》發(fā)布,對人臉生成、替換、操控,人聲、仿聲等都有明確約束。顯然,隨著制度設計更精準,相關立法更健全,AI換臉空間將越來越逼仄。

  AI換臉術濫用,也促使大家思考一個深層次問題。新技術不斷面世,帶給了人們便利,但可能被居心叵測之徒非法利用。人們固然不能因噎廢食,但也不能忽略它的雙刃劍效應。如果缺乏應有規(guī)束,AI換臉則可能打開潘多拉魔盒。因勢利導,使其趨利避害,這是我們要全力做到的。

  來源:央視新聞綜合中國之聲

相關文章

地址:河北省邯鄲市人民路新時代商務大廈10樓 客服熱線:0310-3181999
邯鄲之窗  www.biocind.com  版權所有 未經同意不得復制或鏡像 在線交流

冀公網安備 13040302001161號 冀ICP備12015509號-8