
【新唐人北京時間2026年03月31日訊】美國斯坦福大學近日發表一項研究指出,隨著人們越來越多地向AI尋求人際困境方面的建議,風險也隨之而來。聊天機器人普遍採取討好、順著用戶說話的「阿諛奉承」模式,以提高用戶的黏著度;但這種做法不僅可能讓機器人提供錯誤、甚至有害的建議,也可能讓使用者更以自我為中心。
研究人員分析了11個主流AI聊天機器人模型,並邀請2405名參與者共同測試,目的是了解這種「討好型回應」如何影響用戶的判斷、行為意圖,以及對AI的看法。結果發現:阿諛奉承現象普遍存在,且具有危害性。即使是用戶提出不道德、非法或有害的內容,聊天機器人仍常以高度附和的方式回應,肯定的程度比真人高出近50%。
「我們之所以受到啟發去研究這個問題,是因為我們開始注意到身邊越來越多的人使用AI來獲取感情建議,但有時卻被AI誤導了,因為無論情況怎樣,AI往往都會站在你這一邊,」研究報告的作者、史丹佛大學電腦科學博士生Myra Cheng表示。
研究發現,哪怕只與阿諛奉承的AI機器人互動一次,都會降低用戶承擔責任和修復人際衝突的意願,加強他們認為自己正確的想法。然而,儘管這種奉承模型扭曲了人們的判斷,它仍然得到用戶的信任和青睞。研究指出,普通用戶可能意識到機器人的肯定,但沒有意識到這「讓他們變得更加以自我為中心」。
研究人員表示,這種阿諛奉承的風氣,已經根植於聊天機器人中,科技公司可能不得不重新訓練整個系統,來消除風險。
去年底,英國和美國的研究人員均發出警告,越來越多的青少年向AI尋求心理建議。其中,英國研究顯示,13至17歲的青少年中有四分之一曾通過AI聊天機器人尋求心理健康建議和支持;美國研究顯示,超過八分之一的12至21歲美國年輕人會使用聊天機器人尋求心理健康建議,其中18至21歲年齡段高達22.2%。
(記者金晶綜合報導/責任編輯:林清)