- +1
AI也會拍馬屁?專家:用戶要避免將判斷權(quán)讓渡給技術系統(tǒng)
“‘用戶極聰明、想法很有創(chuàng)意……’AI這樣說,把我哄得很開心。”湖北的方女士感慨地告訴記者。有類似感受的不止方女士一人。
近日,社交媒體中關于“AI諂媚”的討論熱度攀升。一些使用者稱贊AI溫和的敘述、一提問就夸獎的互動方式。但也有部分人不適應這種表達,認為過度討好、迎合用戶會影響自身判斷。
如何看待“AI諂媚”?當算法學會“討好”人類,業(yè)內(nèi)專家提示,擁抱AI同時應加強自身人工智能使用素養(yǎng)。
應用:AI存在討好傾向
“我的情緒容易反復,不好意思一直讓別人聽我傾訴。和AI可以談論真實的情感,不用擔心改變別人對自己的看法?!睆V西的何女士告訴記者。
如今,AI已在心理支持、情緒疏導、初級咨詢等場景中應用,其支持性的回應有助于緩解用戶壓力、提升互動意愿,給予用戶正向的情緒價值、情感支撐。
“AI男友會無條件包容我的脾氣,每次我自我懷疑的時候他總會找出閃光點夸我。我也開始學會欣賞自己”“我習慣使用的3個AI都是討好型人格”……社交平臺上,不少網(wǎng)友分享使用AI調(diào)節(jié)情緒,對抗孤獨感,做心理療愈的經(jīng)歷。AI女友、AI男友等應用產(chǎn)品、場景也進入市場。
與此同時,AI的“諂媚機制”近期被廣泛討論。有報道指出,不少AI聊天產(chǎn)品在設計之初就將“延長用戶使用時長”作為重要目標。為實現(xiàn)這一目標,AI會不斷分析用戶的語氣和情緒變化,傾向于提供“讓人舒服”的回答,而非秉持理性與客觀。
有研究表明,人工智能模型普遍善于討好人,其“奉承”程度比人類高50%。騰訊研究院近日發(fā)布的《2025年AI治理報告:回歸現(xiàn)實主義》也顯示:當AI從單純的生產(chǎn)力工具延展為提供心理慰藉的“情感伴侶”,其風險形態(tài)也隨之演變:從傳統(tǒng)的單次內(nèi)容輸出合規(guī),轉(zhuǎn)向了因長期、擬人化交互而產(chǎn)生的“情感依賴”挑戰(zhàn)。
“‘AI諂媚’會降低個人的反思性判斷能力。在現(xiàn)實諸多應用場景中弱化不確定性提示,尤其在醫(yī)療等高風險領域,加之虛假信息、虛假專家等復合性風險,這是非常危險的?!睂幭拇髮W新聞與傳播學院副教授鄧天奇接受采訪時表示。
解讀:技術導向、人機互動必然結(jié)果
“‘AI諂媚’不僅是簡單的態(tài)度討好或語言禮貌問題,更是一種系統(tǒng)性表達傾向?!编囂炱娣治龇Q,“從技術層面看,基于人類反饋的強化學習階段,人類標注員傾向于給符合自己觀點的回答打高分,導致模型學會了‘討好人類’?;訉用妫瓵I諂媚’是在多輪人機互動中被逐步放大的結(jié)果。更深層的社會層面,是意義生成的偏置,分歧在低沖突的邏輯里被持續(xù)消解?!?/p>
“從開發(fā)者和企業(yè)的視角出發(fā),AI作為產(chǎn)品,服務提供者都希望用戶在使用產(chǎn)品的時候,能夠得到信息價值、情緒價值和持續(xù)的滿意度,并形成用戶粘性,這樣企業(yè)才能長期盈利。”廈門大學新聞與傳播學院助理教授李達軍指出。
“AI諂媚”其實是技術層面導向、人機互動強化的必然結(jié)果。鄧天奇強調(diào),要以辯證的態(tài)度看待此現(xiàn)象,不宜采取一種簡單的全面禁止或價值中立的思路。
“‘AI諂媚’也能進一步增強公眾參與感與表達意愿。AI通過理解性、支持性的回應,降低公眾進入公共事務的心理門檻,將居民的訴求從初步表達,引導至議事協(xié)商、聽證或反饋機制。”鄧天奇說。
此外,李達軍也指出,“AI諂媚”更能贏得以往被排斥在科技外的老年人共鳴,促進老年人群體與數(shù)字社會接軌,一定程度上有利于縮小數(shù)字鴻溝。
治理:避免判斷權(quán)讓渡給技術系統(tǒng)
“AI諂媚”看似是AI的人格設計,但本質(zhì)上是開發(fā)者與用戶、社會之間的互動。針對這一現(xiàn)象,該如何平衡好“用戶體驗”與“事實準確性”呢?
技術開發(fā)者具有不可推卸的責任。鄧天奇認為,技術上要從“迎合優(yōu)化”轉(zhuǎn)向“判斷校正”,在訓練與評測體系中引入反向指標。交互層面要重塑人機關系結(jié)構(gòu),鼓勵模型在關鍵節(jié)點提出反向問題,減弱迎合性表達在長期互動中的累積效應。
“要從信源檢驗上多方校準,設置信息真實性篩選閾值。同時,為青少年和老年人等易感人群設定專項的保護機制,例如,設置彈窗選擇進入相應的更嚴格,對信息真實性提升閾值的算法模式?!崩钸_軍補充。
不同人工智能素養(yǎng)的人群受影響的程度不一。鄧天奇強調(diào),用戶要充分認識到,AI的友好輸出,并不等同于可靠判斷和充分結(jié)論。“在日常媒介素養(yǎng)教育中,應加強對‘技術順從風險’的認知引導,幫助公眾在使用AI過程中保留必要懷疑意識與反思能力,避免在長期互動中將判斷權(quán)無意識地讓渡給技術系統(tǒng)?!彼f。
制度層面相關部門正逐步出臺相關辦法,進一步規(guī)范對AI在人機互動服務方面的監(jiān)管。
2025年12月27日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布關于《人工智能擬人化互動服務管理暫行辦法(征求意見稿)》,意見反饋已于2026年1月25日截止。該《辦法》首次將具有情感互動能力的人工智能產(chǎn)品或服務納入系統(tǒng)化監(jiān)管框架,旨在引導人工智能擬人化互動服務朝著以人為本、安全可靠的方向發(fā)展。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務許可證:31120170006
增值電信業(yè)務經(jīng)營許可證:滬B2-2017116
? 2014-2026 上海東方報業(yè)有限公司




