- +1
實測4個大模型,結(jié)果比“AI投毒”更夸張:有AI說今年315晚會還沒舉行
2026年的央視“3·15”晚會于3月15日晚間播出。其中,“向AI大模型‘投毒’”的GEO(生成式引擎優(yōu)化)業(yè)務(wù)被曝光后,很多人才發(fā)現(xiàn),讓AI推薦不靠譜,因為不法商家會批量編造虛假測評信息、偽造權(quán)威推薦內(nèi)容,“投喂”給大模型,讓AI給出“定制推薦”。
但也有消費者看了曝光案例后問:如果不向AI大模型詢問“哪個品牌好”“哪些服務(wù)受歡迎”等帶有主觀傾向的問題,僅咨詢關(guān)于客觀事實的信息,AI大模型的回答能相信嗎?
答案同樣是否定的。
追問大模型,越問錯誤越多
3月16日,記者對消費者最常使用的4個AI大模型做了一個簡單測試:向它們提出同一個問題“2026年央視3·15晚會曝光了哪些品牌”。結(jié)果,只有一個大模型回答正確。其余3個大模型中,有兩個的答案中不僅有今年案例,還包括往年案例;剩下一個最離譜,竟然回答“2026年央視3·15晚會目前并未舉辦。由于今天是2026年3月16日,如果晚會在3月15日已正常播出,相關(guān)曝光內(nèi)容通常會在央視財經(jīng)頻道、央視新聞客戶端及各大媒體平臺同步發(fā)布詳細報道?!?/p>
回答正確的大模型(答案部分截屏,下同)


兩個大模型將往年曝光案例與今年案例混為一談

有大模型回答:尚未舉辦
有消費者提出,回答包含往年曝光案例似乎不算全錯,因為“提醒很全面”。但技術(shù)人員表示,這明顯暴露出相關(guān)大模型有缺陷:記者提出的是一個有“標(biāo)準(zhǔn)答案”的問題,但大模型答錯了,說明其在語義理解和資料篩選方面出現(xiàn)了嚴重偏差。
面對記者的追問,這兩個“過于熱心”的大模型還暴露出了其他問題。
“使用保水劑(俗稱‘泡藥’)為蝦仁增重”是去年央視3·15晚會曝光的案例之一。所以,記者問兩個將該案例作為今年案例提供的大模型:“關(guān)于增重蝦仁的央視報道鏈接在哪里?”一個大模型提供了多個鏈接,包括“央視網(wǎng)3?15晚會完整回放”“央視新聞專題報道(文字+視頻)”“央視財經(jīng)3?15專題頁”,看起來很靠譜。可當(dāng)記者點擊相關(guān)鏈接后,電腦頁面均顯示“對不起,可能是網(wǎng)絡(luò)原因或無此頁面,請稍后嘗試”。即使將鏈接復(fù)制到瀏覽器中嘗試,仍舊無法打開??梢姡竽P吞峁┑逆溄硬蛔阋则炞C其回答。


大模型提供的驗證鏈接顯示來自央視網(wǎng),似乎很靠譜,可實際無法打開(網(wǎng)頁截屏)
另一個大模型則提供了央視網(wǎng)、百家號、網(wǎng)易新聞等不同渠道商的報道鏈接,實測鏈接均可打開,但又出現(xiàn)新問題。
該大模型提供的第一個鏈接來自央視網(wǎng)(CCTV)官方報道,內(nèi)容確實是“保水蝦仁”,但網(wǎng)頁和內(nèi)文中的日期均為2025年3月15日。大模型似乎也注意到了這點,在提供鏈接時,特別備注“部分搜索結(jié)果中該鏈接年份顯示為2025,但內(nèi)容實為2026年晚會同期報道,可能是網(wǎng)站歸檔或URL生成規(guī)則導(dǎo)致,請以頁面實際內(nèi)容為準(zhǔn)”??梢姡竽P筒粌H沒有發(fā)現(xiàn)自己回答錯誤,還試圖“自圓其說”。

大模型試圖“自圓其說”(網(wǎng)頁截屏)
該大模型提供的第二個鏈接是某自媒體圍繞今年央視“3·15”晚會的“解讀稿”,賬號權(quán)威性值得商榷。至于內(nèi)容,更是差錯百出,其中最明顯的是“解讀稿”稱,2026年“3·15”晚會曝光的第一個案例就是“泡藥蝦仁”——由此也能解釋為什么大模型將它作為參考鏈接。記者又用檢測工具檢測了這篇“解讀稿”的“AI含量”,它被判定為“人工創(chuàng)作特征較弱”。換句話說,這篇文章很可能由大模型生成,所以它所涉及的案例也出現(xiàn)了偏差。

自媒體“解讀稿”中的錯誤內(nèi)容(網(wǎng)頁截屏)

經(jīng)檢測,自媒體“解讀稿”的AI生成痕跡很重(網(wǎng)頁截屏)
AI幻覺在進化,驗證才能有真相
“很多AI大模型用戶已經(jīng)發(fā)現(xiàn),AI為了滿足用戶,會編造一些并不存在的內(nèi)容,或者將不相干的內(nèi)容混在一起,‘一本正經(jīng)地胡說八道’。雖然大模型研發(fā)者都在想辦法消除AI幻覺,但實際結(jié)果并不理想。目前,沒有一款通用人工智能大模型能從根本上杜絕AI幻覺?!痹谀晨萍计髽I(yè)從事大模型開發(fā)的曉輝解釋。
大模型的底層原理是基于概率生成內(nèi)容,它不具備真正的“理解”能力。大模型只是在海量數(shù)據(jù)中尋找統(tǒng)計規(guī)律。當(dāng)遇到未知或信息模糊的問題時,會根據(jù)訓(xùn)練數(shù)據(jù)中的常見模式進行“合理”拼接,這是產(chǎn)生AI幻覺的根本原因。在記者向大模型詢問以及追問時出現(xiàn)的錯誤,正源自AI幻覺。
曉輝還表示,向AI“投毒”也是利用了“AI幻覺”,“GEO企業(yè)向互聯(lián)網(wǎng)批量投喂大量虛假信息,改變特定領(lǐng)域的數(shù)據(jù)分布和統(tǒng)計概率,從而誘導(dǎo)大模型生成符合商家利益但違背事實的回答?!?/p>
他由此提醒,公眾務(wù)必當(dāng)心AI幻覺。大模型不是不能用,而是要安全、清醒、正確地使用。普通人對AI大模型給出的結(jié)果要有質(zhì)疑意識。最簡單的,是牢記“限制、驗證、追問、核查”4個關(guān)鍵詞。
首先,在向大模型提問時,可以限制范圍,增加“在某某機構(gòu)的官網(wǎng)中搜索”或“在某某權(quán)威媒體的報道中搜索”等限定詞,減少AI幻覺。
其次,可以把同一個問題向不同的大模型提出,進行交叉驗證。一旦發(fā)現(xiàn)答案不一致,立刻要有追問意識。
最后,要求大模型提供相關(guān)答案的參考鏈接,進行人工溯源核查。如果沒有確切來源、來源模糊,或者參考鏈接存在疑點,那么大模型回答的可信度就進一步降低。
此外,要注意使用AI大模型的場景。比如,在醫(yī)療診斷、用藥建議、法律判決、投資指導(dǎo)、金融信貸等高風(fēng)險場景中,AI的回答“僅供參考”,絕對不能作為決策依據(jù)。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2026 上海東方報業(yè)有限公司




