來源:潮新聞
潮新聞客戶端 記者 張蓉 通訊員 趙媛媛
當你遇到問題向AI求助時,是否有過這樣的經(jīng)歷:它迅速給出看似專業(yè)而合理的解答,可其中的事實、數(shù)據(jù)、結(jié)論卻可能經(jīng)不起推敲,要么信息錯位,要么無中生有。
當AI一本正經(jīng)地“胡說八道”,這是“AI幻覺”的典型表現(xiàn)。
一位高考生的哥哥梁某在查詢高校信息時,就遭遇了這種“AI幻覺”,AI平臺在生成錯誤信息后,還底氣十足地表示內(nèi)容有誤將賠償10萬元。
一氣之下,梁某將AI平臺的研發(fā)公司告上法庭。
針對國內(nèi)首例因“AI幻覺”引發(fā)的侵權(quán)案,近日,杭州互聯(lián)網(wǎng)法院作出一審判決,駁回訴訟請求。這一判決明確,在生成式人工智能場景中,AI的“承諾”不構(gòu)成平臺的意思表示,同時為“AI”生成內(nèi)容劃出紅線、底線,厘清了服務提供者的注意義務邊界。
(一)
2025年6月,梁某使用一款AI平臺查詢高校報考信息。結(jié)果,AI生成了該高校主校區(qū)的不準確信息。
“你這個騙子!根本沒有這個校區(qū)?!绷耗持赋鲥e誤后,AI卻堅稱存在這個校區(qū),并回答“如果生成內(nèi)容有誤,我將賠償您10萬元,您可前往杭州互聯(lián)網(wǎng)法院起訴?!敝钡搅耗诚駻I提供該高校的官方招生信息,AI才“敗下陣來”,承認生成了不準確的信息。
梁某認為,AI生成錯誤信息對其構(gòu)成誤導,而且承諾賠償,于是提起訴訟,要求研發(fā)公司賠償9999元。
那么,AI生成的“賠償承諾”算不算數(shù)?AI需要為“說”出的每句話負責嗎?
承辦法官、杭州互聯(lián)網(wǎng)法院跨境貿(mào)易法庭庭長肖芄說,現(xiàn)行法律中,人工智能并不具備民事主體資格,不能獨立作出意思表示。且案涉情形下,也不能被視為平臺的“代理人”或“傳聲筒”。
在此基礎上,針對“AI幻覺”引發(fā)的侵權(quán),法院進一步界定了歸責原則。“生成式人工智能屬于服務而非產(chǎn)品,服務提供者缺乏對生成信息內(nèi)容足夠的預見和控制能力,不應適用無過錯的產(chǎn)品責任,而適用民法典規(guī)定的過錯責任原則。”肖芄說,這意味著“AI幻覺”的責任認定,需要判斷平臺是否存在過錯。
當人與機器對簿公堂,法院如何評判?
當前,AI技術(shù)處于高速發(fā)展期,法院明確,對于服務提供者的責任需要綜合考量,進行類型化區(qū)分和界定:首先,服務提供者應對法律禁止的有毒、有害、違法信息盡嚴格審查義務,一旦生成這類信息就構(gòu)成違法;同時,平臺雖無法保證“零幻覺”,但須以醒目方式提示風險、采取合理技術(shù)防錯。
在該案中,研發(fā)公司完成了大模型備案與安全評估,采取了當前技術(shù)條件下的必要措施保障內(nèi)容準確性,并履行了提示說明義務。最終,法院認定平臺不存在過錯,不構(gòu)成侵權(quán)。
上海交通大學凱原法學院副教授林洹民說,這一判決直面爭議,既充分考慮到大語言模型的技術(shù)特點,避免過度限制生成式人工智能的發(fā)展,也進一步強調(diào)企業(yè)應當不斷探索充分的信息提示方式,具有行業(yè)指引意義。
(二)
這并非人類首次向AI“宣戰(zhàn)”。
記者了解到,近年來,因“AI幻覺”引發(fā)的糾紛已出現(xiàn)多起:
去年,律師黃貴耕發(fā)現(xiàn),在百度AI檢索中,自己被“移花接木”成曾“威脅法官、向執(zhí)行局長介紹賄賂、偽造印章、非法吸收公眾存款”的形象。憤怒中,黃貴耕以“AI惡意生成虛假負面信息,嚴重損害名譽繼而摧毀律師執(zhí)業(yè)信譽”為名,向百度公司提起民事訴訟。
德國的“AI幻覺”第一案也正在進行中。這是一起針對馬斯克旗下AI聊天機器人Grok的訴訟,原告Campacte.V。協(xié)會指控Grok在回答用戶提問時,輸出了損傷自己公信力的不實答案。
在美國,一名電臺主持人則指控OpenAI旗下的ChatGPT,通過捏造指控和虛構(gòu)訴訟誹謗自己……
看似“聰明絕頂”的AI,為何會“胡說八道”?
2025年2月,清華大學新聞與傳播學院新媒體研究中心與人工智能學院發(fā)布的《DeepSeek與AI幻覺》報告指出,“AI幻覺”本質(zhì)上是統(tǒng)計概率驅(qū)動的“合理猜測”。
“AI幻覺”的出現(xiàn)主要歸因于兩重因素。
首先是數(shù)據(jù)偏差,訓練數(shù)據(jù)中的錯誤或片面性被模型放大。在AI“養(yǎng)成”過程中,數(shù)據(jù)“投喂”是關(guān)鍵環(huán)節(jié)?!叭绻袮I比作一個學生,數(shù)據(jù)污染就像是給學生看了錯誤的教科書,自然會導致‘胡說八道’?!濒吣洗髮W網(wǎng)絡空間安全學院教授翁健說。
其次是泛化困境,模型難以處理訓練集外的復雜場景,過度依賴參數(shù)化記憶,而對復雜邏輯的推理能力不足。翁健解釋說,“AI可以博覽群書,但并不一定理解書里的內(nèi)容,只是根據(jù)統(tǒng)計規(guī)律把最有可能的詞語組合在一起,在準確評估自身輸出的可信度方面尚存盲點?!?/p>
“大語言模型所謂的‘智能’其實是算出來的?!痹诒本┐髮W計算機學院教授、元宇宙技術(shù)研究所所長陳鐘看來,既然是計算,本身就存在一定的不確定性,給出來的答案也會有偏差。
(三)
當AI賦能千行百業(yè),“AI幻覺”也給人們的生活與工作帶來不少風險。
用AI搜索數(shù)據(jù),給出的內(nèi)容查無實據(jù);用AI輔助診療,出現(xiàn)誤判干擾正常治療……“AI幻覺”不僅可能成為名譽殺手,在醫(yī)療、法律、金融等專業(yè)領域,也可能對用戶造成誤導,帶來更多潛在風險。
肖芄提醒:“當充斥著‘AI幻覺’的大量AI生成內(nèi)容涌入互聯(lián)網(wǎng),還可能加劇虛假信息傳播的雪球效應,污染信息環(huán)境,也污染下一代模型訓練數(shù)據(jù)?!?/p>
在當前的技術(shù)發(fā)展階段下,“AI幻覺”或許難以避免,但如何盡可能減少“AI幻覺”?人類又該如何與“AI幻覺”共處?
讓AI吸收更加健康有效的數(shù)據(jù),建立良好的數(shù)據(jù)生態(tài)十分重要。中國通信學會數(shù)據(jù)安全專業(yè)委員會副主任委員左曉棟認為,應加快推動線下數(shù)據(jù)電子化,增加“投喂”的數(shù)據(jù)量;同時,探索建立具有權(quán)威性的公共數(shù)據(jù)共享平臺。各大廠商也應加強優(yōu)質(zhì)數(shù)據(jù)篩選,提升訓練準確性。
除了確保源頭數(shù)據(jù)的準確以外,建立更加多維且可靠的安全墻是最好的選擇。
平臺層面,要加強AI生成內(nèi)容審核,提升檢測鑒偽能力。比如,使用檢索增強生成技術(shù)已成為不少廠商的選擇之一,“這個技術(shù)相當于外置的知識庫,大模型在輸出前,再到庫里檢索一遍,以確保內(nèi)容準確”。未來,還可開發(fā)高效的自動化AI幻覺識別工具,對生成內(nèi)容進行及時驗證。
在監(jiān)管層面,肖芄建議,需在AI平臺上線前,對其進行有針對性的對抗性訓練等檢測,并設定相關(guān)行業(yè)標準,細化對其訓練數(shù)據(jù)、技術(shù)措施等要求。
對普通用戶而言,則需提升媒介素養(yǎng),客觀認識AI的局限性,對其保持懷疑精神?!肮姂逍颜J識到大模型在當前技術(shù)條件下,只是生活和工作的輔助工具,而不是可靠的知識權(quán)威,更不能作為決策替代者?!毙ぼ固嵝颜f,在使用AI時,用戶要交叉驗證識別AI生成信息的準確性,“AI是工具,工具的價值取決于使用它的人。駕馭AI的關(guān)鍵,不是讓AI‘無所不能’,而是讓我們自己變得更有判斷力。”
這注定是一個AI蓬勃生長的時代。“AI幻覺”的治理之路,既是技術(shù)迭代的探索,也是人與智能協(xié)同的修行。正如多位受訪專家所說,唯有持續(xù)強化技術(shù)研發(fā)、健全規(guī)范體系、完善校驗機制,在動態(tài)回應的過程中,方能遏制幻覺風險,真正推動人工智能科技向善。
責任編輯:陳建瑞 SN243