【科學(xué)的溫度】AI換臉火爆的背后:如何防止人工智能技術(shù)被“惡用”?
中新網(wǎng)12月22日電 (記者 李金磊)數字化3.0時(shí)代,人類(lèi)生活越來(lái)越離不開(kāi)人工智能。如何防止人工智能技術(shù)被“惡用”?越來(lái)越多的虛擬人是否會(huì )取代部分真人職業(yè)?如何克服算法歧視,讓人工智能實(shí)現可知、可信、可控、可用?
圍繞上述熱點(diǎn)問(wèn)題,清華大學(xué)人工智能?chē)H治理研究院副院長(cháng)、人工智能治理研究中心主任梁正接受了中新網(wǎng)專(zhuān)訪(fǎng),進(jìn)行解讀。
防止人工智能技術(shù)被“惡用”
AI換臉、AI換聲、三維重建、智能對話(huà)……深度合成技術(shù)應用日益廣泛,催生了美顏美妝、影視制作、智能客服、虛擬主播、元宇宙等應用服務(wù),但也存在著(zhù)被惡意利用的現象,一些不法人員用來(lái)制作、復制、發(fā)布、傳播違法和不良信息,詆毀、貶損他人名譽(yù)、榮譽(yù),仿冒他人身份實(shí)施詐騙等。
怎樣抵御這些可能的“惡用”?梁正表示,對于深度合成,AI換臉是一個(gè)典型的應用。最近三部門(mén)出臺了《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規定》,對于規范深度合成服務(wù)提出了明確要求。
根據規定,提供人臉、人聲等生物識別信息顯著(zhù)編輯功能的,應當提示使用者依法告知被編輯的個(gè)人,并取得其單獨同意。提供智能對話(huà)、合成人聲、人臉生成、沉浸式擬真場(chǎng)景等具有生成或者顯著(zhù)改變信息內容功能服務(wù)的,應當在生成或者編輯的信息內容的合理位置、區域進(jìn)行顯著(zhù)標識,向公眾提示信息內容的合成情況,避免公眾混淆或者誤認。
梁正指出,使用個(gè)人肖像如果沒(méi)有征得同意,就去公共互聯(lián)網(wǎng)上采集使用的話(huà),這屬于違法行為。平臺上如果有類(lèi)似應用,平臺就有責任去監督。即使是合法的使用,也要打上標簽,讓大家知道這不是真的,一定程度上可以減少深度合成內容產(chǎn)生的認知偏差和社會(huì )誤導。如果平臺自己去提供這一類(lèi)服務(wù),還要求用相應的工具去識別它不是真實(shí)的,這就對平臺提出了更高的要求。
“不僅要合法合規,而且還要合意?!?梁正表示,要進(jìn)一步完善法律法規,嚴格落實(shí)相關(guān)規定,建立健全懲罰制度,個(gè)人要有維權意識,通過(guò)救濟渠道維護自身合法權益,從而減少AI被惡意利用的現象。

虛擬人已經(jīng)開(kāi)始取代部分真人職業(yè)
近年來(lái),虛擬代言人、虛擬主播、虛擬演員歌手,越來(lái)越多虛擬人在被推向市場(chǎng)。人們擔心,虛擬人在未來(lái)或將取代部分真人職業(yè)。
“在娛樂(lè )、新聞領(lǐng)域,虛擬人的應用越來(lái)越多,因為它是一個(gè)低成本、高效率的方式?!痹诹赫磥?lái),虛擬人越來(lái)越多也是一種必然的趨勢,而且已經(jīng)在替代部分真人職業(yè)了。比如,現在很多虛擬新聞主播,還有電話(huà)客服越來(lái)越多使用智能語(yǔ)音服務(wù)?!斑@個(gè)替代它一定是會(huì )部分發(fā)生的?!?/p>
新生事物發(fā)展背后也存在一些隱患。梁正提醒,大家不要把真假弄混了,虛擬人的形象、內容、對話(huà)都是基于訓練的結果,或者是事先編好的,如果把它當成真人的話(huà),就會(huì )產(chǎn)生誤導。
“比如說(shuō),跟對話(huà)機器人去對話(huà)要非常小心。對于有些敏感話(huà)題,因為它背后沒(méi)有意識,是順著(zhù)你說(shuō)的,如果沒(méi)有干預就可能產(chǎn)生誤導,但它沒(méi)有辦法承擔責任。所以要對虛擬形象的深度合成打上標簽,并限定它的使用場(chǎng)景。特別是在教育醫療這樣一些敏感的高風(fēng)險場(chǎng)景,人工干預是必須的?!绷赫f(shuō)。
梁正認為,虛擬人的應用總體要分場(chǎng)景,在游戲、天氣預報、新聞播報等一些低風(fēng)險場(chǎng)景問(wèn)題不大,但如果是高風(fēng)險場(chǎng)景,就要非常小心,虛擬形象能夠做什么,什么不能做,要把界限劃清楚,比如心理陪伴機器人,要評估它說(shuō)的話(huà)帶來(lái)的長(cháng)期心理影響是什么樣的。
下一代人工智能應該是可解釋的
人工智能不離開(kāi)算法,算法公平和算法歧視話(huà)題也備受關(guān)注。國外一些研究和媒體報道提到,算法開(kāi)發(fā)者或算法本身根據大數據積累存在種族、性別、文化等歧視的可能性。
對此,梁正表示,算法是依據數據訓練出來(lái)的,數據的有偏性是導致算法本身有偏性的一個(gè)主要原因。所以,算法歧視不是算法造成的,是社會(huì )本身造成的,是算法本身的技術(shù)特點(diǎn)所導致的,使用大量已經(jīng)帶有傾向性的數據,算法也就會(huì )作出一種傾向性的判斷。
梁正指出,要想改變這種偏見(jiàn),首先要糾正社會(huì )偏見(jiàn)。所以在使用數據的時(shí)候,要進(jìn)行人工干預,在統計學(xué)上可以通過(guò)一些模擬數據來(lái)做一個(gè)平衡,但根本上是要賦予人工智能以常識,要把一些因果的因素考慮進(jìn)去,而不是單純只依賴(lài)于這種數據。
“絕對的算法公平并不存在?!?梁正認為,算法公平具有多維性,常常面臨“不可能三角”式的挑戰。在公共管理領(lǐng)域中,起點(diǎn)公平、過(guò)程公平、結果公平三者同時(shí)實(shí)現基本是不可能的。絕對的公平實(shí)際上在算法的設計中其實(shí)也是做不到的,關(guān)鍵取決于你要什么樣的目標。
梁正表示,要實(shí)現人工智能可知、可信、可控、可用??芍簿褪强山忉?zhuān)@是最基礎也是最復雜的層面,下一代人工智能應該是可解釋的,如果說(shuō)它不能夠被解釋的話(huà),就會(huì )限制它很多方面的應用和大家對它的信任。算法可解釋?zhuān)@種條件下才能夠放心去使用它。
“現在最大的問(wèn)題就是黑箱,現有的人工智能是基于數據訓練出來(lái),你不知道中間發(fā)生的事,而新一代的人工智能就是要在數據的基礎加上知識,甚至要加上我們的邏輯,讓它能夠按照我們可理解的方式運行?!绷赫f(shuō)。(完)

- 專(zhuān)題:科學(xué)的溫度
經(jīng)濟新聞精選:
- 2025年07月17日 20:15:12
- 2025年07月17日 20:03:26
- 2025年07月17日 19:54:15
- 2025年07月17日 16:08:11
- 2025年07月17日 15:13:11
- 2025年07月17日 14:35:37
- 2025年07月17日 10:30:29
- 2025年07月16日 22:03:06
- 2025年07月16日 20:45:05
- 2025年07月16日 20:38:16