制造出的虛假信息更具迷惑性,“AI(人工智能)幻覺”帶來“一本正經(jīng)地胡說八道”……易傳播、難防治的“AI謠言”,對政府監(jiān)管部門、互聯(lián)網(wǎng)平臺、技術(shù)研發(fā)者以及社會各界提出了新挑戰(zhàn)。
如何遏制人工智能“說謊”?需要技術(shù)完善與規(guī)制,也需要系統(tǒng)性治理。多名受訪專家表示,要完善法律規(guī)范和部門監(jiān)管,推動形成多方聯(lián)動的共治格局。
亮明法律底線,增強對“AI謠言”的威懾力
近日,借AI造謠燃氣漲價的廣西網(wǎng)民鄭某受到行政處罰;一批傳播“AI謠言”的網(wǎng)絡(luò)賬號被網(wǎng)信部門責(zé)令禁言或依法依約關(guān)閉;向用戶傳授如何利用AI“一鍵去衣”“換臉換身”的賬號、公開售賣相關(guān)軟件的網(wǎng)絡(luò)店鋪,受到網(wǎng)信、公安等部門聯(lián)動懲治……
依法懲治的背后,是近年來AI相關(guān)法律法規(guī)的不斷健全完善。《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》《人工智能生成合成內(nèi)容標(biāo)識辦法》等出臺,向AI使用者和平臺管理者亮明了法律底線,為執(zhí)法提供了法律依據(jù)。
中南大學(xué)法學(xué)院副院長楊清望表示,“AI謠言”違法成本過低的問題仍然存在,要對不法行為嚴(yán)加懲處,完善相關(guān)法律法規(guī),增強威懾力。
北京師范大學(xué)新聞傳播學(xué)院教授許小可建議,針對生成和傳播虛假信息的高風(fēng)險領(lǐng)域,通過司法解釋等法律形式,明確各方義務(wù)邊界,制定科學(xué)合理的AI侵權(quán)責(zé)任認定指導(dǎo)標(biāo)準(zhǔn)。
與此同時,“AI謠言”案件取證難,困擾著辦案機關(guān)。“解決涉‘AI謠言’案件取證難,需構(gòu)建一套適應(yīng)AI技術(shù)特性的證據(jù)收集與認定系統(tǒng)。”楊清望建議,通過建立完善案件證據(jù)的司法認定規(guī)則與標(biāo)準(zhǔn),將不涉及商業(yè)秘密和個人隱私的平臺算法透明化,以此破解證據(jù)與責(zé)任認定難題。
一些地方公安機關(guān)已經(jīng)在監(jiān)測和識別“AI謠言”上有所探索。“我們與科研機構(gòu)、企業(yè)密切合作,進一步提高對惡意‘深度偽造’信息的監(jiān)測預(yù)警和快速識別能力,與相關(guān)部門合作建立網(wǎng)絡(luò)謠言巡查監(jiān)測、核查反饋、會商研判、線索移送、打擊處置的閉環(huán)機制,對于通過AI等方式合成的虛假信息,第一時間依法依規(guī)處理。”遼寧沈陽市公安局網(wǎng)絡(luò)安全保衛(wèi)支隊民警楊永志表示。
加固技術(shù)堤壩,斬斷“AI謠言”的傳播鏈
有網(wǎng)友發(fā)現(xiàn),一些網(wǎng)絡(luò)平臺上,AI生成圖片、視頻發(fā)布時“疑似AI技術(shù)生成”的提示語出現(xiàn)并不及時,給了虛假信息傳播的時間。
“為了維護自身發(fā)展和利益,平臺更應(yīng)自覺治理‘AI謠言’,斬斷‘AI謠言’的傳播鏈條。”楊清望認為,發(fā)現(xiàn)AI謠言后,平臺應(yīng)立即采取下架、刪除、辟謠等措施,尤其是面對重大事件、敏感話題,要加強圖片、視頻的真?zhèn)魏瞬椋皶r消除謠言帶來的負面影響。
如何加強真?zhèn)魏瞬椋?/p>
重視網(wǎng)民反饋。“建立便捷的舉報和投訴渠道,對于網(wǎng)民反映的疑似謠言信息,要及時予以查證處理。對于多次利用AI造謠的用戶,可以采取列入黑名單等禁止性措施,規(guī)范用戶行為。”楊清望說。
“進行AI識別,還需要有力的技術(shù)保障。”中國政法大學(xué)網(wǎng)絡(luò)法學(xué)研究所所長李懷勝表示,技術(shù)上,可以通過算法識別、大數(shù)據(jù)分析和區(qū)塊鏈溯源等手段,識別和阻斷謠言傳播。例如,利用AI系統(tǒng)檢測,通過自然語言處理和圖像識別技術(shù),自動標(biāo)記可疑內(nèi)容并減少推薦。
“監(jiān)管部門還可以引入‘動態(tài)可追溯責(zé)任鏈’機制,使用內(nèi)容顯式標(biāo)識和隱式標(biāo)識等,探索開展‘AI謠言’的內(nèi)容倒查和動態(tài)追責(zé)。”許小可說。
提高辨別能力,看清“AI謠言”的真面目
數(shù)數(shù)手指,AI可能生成“六根手指”;尋找陰影方向,AI也許把太陽掛反;看看面部表情,AI生成畫面可能眼嘴不協(xié)調(diào)……AI謠言真假難辨,但仍可發(fā)現(xiàn)蛛絲馬跡。
提高警惕,是提升“AI謠言”辨別能力的第一步。
看到“網(wǎng)友爆料”“獨家內(nèi)幕”的字樣,或是發(fā)現(xiàn)信息邏輯存在漏洞或矛盾,就要注意了——它很可能經(jīng)過了篡改或杜撰。“要謹(jǐn)慎分辨,盡量找到權(quán)威信息核實;也可以通過交叉印證的方式,驗證信息真?zhèn)涡浴!痹S小可說。
還要增強法律意識,防止在“無意識”中助力謠言傳播。
“有些人可能主觀上并無造謠意識,只是將AI合成內(nèi)容發(fā)布在網(wǎng)絡(luò)上,結(jié)果被大量轉(zhuǎn)發(fā),從而產(chǎn)生負面影響。”李懷勝說。
對此,李懷勝提醒,AI生成內(nèi)容可能存在事實性偏差、邏輯漏洞或時效滯后問題,使用過程中應(yīng)保持審慎態(tài)度,不要直接公開發(fā)布未經(jīng)核實的AI生成內(nèi)容,防止無意間誤導(dǎo)信息傳播。
在媒體責(zé)任方面,專家認為,媒體平臺應(yīng)提高內(nèi)容審核能力,通過官方渠道和權(quán)威信源核查信息真實性;自媒體從業(yè)者應(yīng)增強法律意識,真實、準(zhǔn)確、客觀發(fā)布信息。
防治“AI謠言”,知識普及不可少。許小可認為,通過發(fā)布典型案例,引導(dǎo)人們了解“AI謠言”的生成機制、傳播邏輯、話術(shù)套路和識別方式,可以幫助人們看清“AI謠言”的真面目。
AI技術(shù)發(fā)展迅速,學(xué)會“智慧”地運用“智慧工具”,才能讓AI更好服務(wù)人們的生產(chǎn)生活。
(侯依陽參與采寫)
《 人民日報 》( 2025年08月20日 04 版)