OpenAI、Meta 等七巨頭聯手,打造 AI 時代的防偽「身份證」
由 AI 生成的內容也要有「身份證」了。
近日,包括 OpenAI、Meta 在內的七家科技巨頭承諾將採用一些安全措施來增強 AI 技術的安全性。
值得注意的是,在承諾中,這七家科技巨頭都不約而同談到了 AI 的監管問題並承諾將共同開發和應用一種水印系統,可用於人工智能生成的所有形式的內容,包括文本、圖像、音頻和視頻。
通過留意嵌入內容中的水印標識,用户能夠自行甄別由 AI 生成的深度偽造的圖像或音頻,從而在用户端上降低暴力、詐騙等負面信息內容的傳播風險。
▲圖片來自:Pexels,下同
事實上,自去年 ChatGPT 爆火以來,入局的科技巨頭勢必要在這場競爭中拔得頭籌,AI 技術的發展一日千里。
而隨之,不成熟的 AI 技術也衍生出一些值得關注的問題,其中首當其衝的正是如何甄別信息內容的真實性。
2019 年,一名詐騙犯利用 AI 語音模仿軟件冒充成公司的大老闆,成功讓一家英國能源公司的 CEO 以為自己正在跟德國母公司的老闆通話。
在電話中,詐騙犯憑藉 AI 技術模擬後的語音,讓該 CEO 立即轉賬 22 萬歐元(注:約合 176 萬人民幣)到匈牙利的一家供應商的銀行賬户,以避免繳納「滯納金」,並要求將轉賬信息以郵件形式發送。該 CEO 在模擬語音的迷惑下,毫不猶疑地照做了,然後,這 22 萬歐元就這樣「打水漂」了。
為這家能源公司承保的保險公司表示:「騙子使用的某種 AI 軟件,不僅能夠模仿他人的聲音、語調,甚至還能模仿帶德國口音的英語。」被騙的 CEO 在一份電子郵件中憤怒地寫道:「(假的)「約翰內斯」甚至在我與真正的約翰內斯通話時,要求跟我通話」
這過於離譜的事件,也普遍引發了用户對 AI 無序發展的擔憂。突破常規的人工智能技術被用於詐騙時,更像是「猜猜我是誰?」的進化版。
但在降維打擊面前,普通人的警惕心顯得毫無用武之地。
而這還只是發生在 2019 年的事件,須臾三年,AI 技術的迅猛發展足以讓人瞠目結舌,而信息內容真實性問題也再次回到公眾視野。
倘若以「AI 詐騙」為關鍵詞,在搜索引擎上篩選最新資訊,我們會發現當前關於 AI 詐騙的事件可謂是比比皆是。這種普遍性的現象恰恰反映了實施有效措施的迫在眉睫。
今年 6 月份的時候,歐洲議會以 499 票贊成、28 票反對和 93 票棄權,高票通過了歐盟的《人工智能法案》,明確了 AI 監管中不可逾越的紅線,基於 AI 的四個等級(從風險最小到不可接受)進行區分管理,其中就明確 ChaTGPT 等工具,必須披露哪些內容是 AI 生成的,以便幫助區分所謂的深度造假圖像和真實圖像,並確保防止生成非法內容。
歐洲議會議員圖朵拉赫表示:「如果人工智能的開發者不這樣做,他們可能會被迫立即刪除應用程序或被罰款,罰款最高可達其收入的 7%。」可能高達數億歐元的罰款對於科技巨頭而言,也算得上「傷筋動骨」了。
因此七家科技巨頭選擇在技術層面給信息內容嵌入水印,一方面有利於用户甄別信息內容的真實性,方便用户溯源信息內容的源頭,另一方面也是對《人工智能法案》的一種無聲迴應,畢竟強如蘋果也不敢輕易放棄歐盟市場。
當然,儘管這也是治標不治本的事情,但口頭在前,行動在後,總歸還是一件不錯的事情。
資料來源:愛範兒(ifanr)
近日,包括 OpenAI、Meta 在內的七家科技巨頭承諾將採用一些安全措施來增強 AI 技術的安全性。
值得注意的是,在承諾中,這七家科技巨頭都不約而同談到了 AI 的監管問題並承諾將共同開發和應用一種水印系統,可用於人工智能生成的所有形式的內容,包括文本、圖像、音頻和視頻。
通過留意嵌入內容中的水印標識,用户能夠自行甄別由 AI 生成的深度偽造的圖像或音頻,從而在用户端上降低暴力、詐騙等負面信息內容的傳播風險。
▲圖片來自:Pexels,下同
事實上,自去年 ChatGPT 爆火以來,入局的科技巨頭勢必要在這場競爭中拔得頭籌,AI 技術的發展一日千里。
而隨之,不成熟的 AI 技術也衍生出一些值得關注的問題,其中首當其衝的正是如何甄別信息內容的真實性。
2019 年,一名詐騙犯利用 AI 語音模仿軟件冒充成公司的大老闆,成功讓一家英國能源公司的 CEO 以為自己正在跟德國母公司的老闆通話。
在電話中,詐騙犯憑藉 AI 技術模擬後的語音,讓該 CEO 立即轉賬 22 萬歐元(注:約合 176 萬人民幣)到匈牙利的一家供應商的銀行賬户,以避免繳納「滯納金」,並要求將轉賬信息以郵件形式發送。該 CEO 在模擬語音的迷惑下,毫不猶疑地照做了,然後,這 22 萬歐元就這樣「打水漂」了。
為這家能源公司承保的保險公司表示:「騙子使用的某種 AI 軟件,不僅能夠模仿他人的聲音、語調,甚至還能模仿帶德國口音的英語。」被騙的 CEO 在一份電子郵件中憤怒地寫道:「(假的)「約翰內斯」甚至在我與真正的約翰內斯通話時,要求跟我通話」
這過於離譜的事件,也普遍引發了用户對 AI 無序發展的擔憂。突破常規的人工智能技術被用於詐騙時,更像是「猜猜我是誰?」的進化版。
但在降維打擊面前,普通人的警惕心顯得毫無用武之地。
而這還只是發生在 2019 年的事件,須臾三年,AI 技術的迅猛發展足以讓人瞠目結舌,而信息內容真實性問題也再次回到公眾視野。
倘若以「AI 詐騙」為關鍵詞,在搜索引擎上篩選最新資訊,我們會發現當前關於 AI 詐騙的事件可謂是比比皆是。這種普遍性的現象恰恰反映了實施有效措施的迫在眉睫。
今年 6 月份的時候,歐洲議會以 499 票贊成、28 票反對和 93 票棄權,高票通過了歐盟的《人工智能法案》,明確了 AI 監管中不可逾越的紅線,基於 AI 的四個等級(從風險最小到不可接受)進行區分管理,其中就明確 ChaTGPT 等工具,必須披露哪些內容是 AI 生成的,以便幫助區分所謂的深度造假圖像和真實圖像,並確保防止生成非法內容。
歐洲議會議員圖朵拉赫表示:「如果人工智能的開發者不這樣做,他們可能會被迫立即刪除應用程序或被罰款,罰款最高可達其收入的 7%。」可能高達數億歐元的罰款對於科技巨頭而言,也算得上「傷筋動骨」了。
因此七家科技巨頭選擇在技術層面給信息內容嵌入水印,一方面有利於用户甄別信息內容的真實性,方便用户溯源信息內容的源頭,另一方面也是對《人工智能法案》的一種無聲迴應,畢竟強如蘋果也不敢輕易放棄歐盟市場。
當然,儘管這也是治標不治本的事情,但口頭在前,行動在後,總歸還是一件不錯的事情。
資料來源:愛範兒(ifanr)