圖片由AI生成
你有沒有試過深夜向聊天機器人傾訴煩惱,得到的卻是一串精準但略顯機械的安慰?現在,這些人工智能(AI)對話助手已經越來越能“讀懂人心”,甚至比朋友更快給出建議,但我們卻似乎難以真正被其打動。
不久前,《自然·人類行為》上發表了一項研究,為人們揭示了這個令人深思的現象:人們確實愿意接受來自人類的情緒支持,而不是來自AI的——哪怕這兩者的回復內容幾乎一樣。
你是否也不相信AI能“懂”你?
50年前,美國芝加哥大學哲學家約翰·豪格蘭德曾說:“AI的問題在于,計算機根本不在乎。”這個看法至今深入人心,尤其在涉及AI和人類情感交互的領域。
這次,包括以色列希伯來大學科學家在內的團隊開展了一系列實驗,涉及超過6000名參與者。他們給參與者展示了一些情緒支持的回復,這些回復都出自同一個AI生成式語言模型。只不過,科學家有時告訴參與者這是AI寫的,有時則說是人類寫的。
當人們以為是在和人類交流時,他們對回復的評價更高,覺得更有同理心、更能帶來情感上的共鳴;而當他們知道是AI寫的,即使內容一模一樣,也會覺得這些建議缺乏溫度,甚至讓人有點失望。
換句話說,人們不是不認可AI說的話,而是不愿意相信它真的能“懂”我們。
為何我們更信任人類的情緒支持?
現在的大語言模型(LLM)已經完全可以分析用戶的情感狀態,并生成看似充滿理解與關懷的回應。
比如你說:“今天工作好累啊”,AI答:“聽起來你真的很辛苦,記得照顧好自己。”這樣的句子看起來很溫暖,也很人性化。
但在實驗中,即使受試者承認AI的回復有邏輯、有情感色彩,他們仍然會覺得“它只是在模仿人類,并沒有真正理解我的痛苦。”這種心理現象被稱為“共情懷疑癥”,因為人們很難把一臺機器當作真正的傾聽者。
有趣的是,即便AI的幫助是由人類在背后“潤色”或“參考”,只要參與者知道有AI參與其中,他們就會降低對這段回復的情感認同度。仿佛AI一旦“碰過”這段話,它就失去了“人性”的溫度。
科學家認為,這可能源于我們對“共情”的深層認知:共情不僅僅是說出正確的話,更重要的是要“感同身受”。因此,當我們知道對方是AI時,潛意識里會覺得“它并沒有經歷過喜怒哀樂,怎么可能真正理解我呢”?
這種心理隨即反映在行為上。在實驗中,當人們被告知可以選擇,要么等待一條來自“人類”的回復,要么立刻收到一條來自“AI”的回復時,他們都寧愿多等幾分鐘,也要選擇那個“人類”的版本。
AI情緒支持還有未來嗎?
這項新研究并不是在評判AI好不好,而是在探索人類如何感知和接受不同來源的支持。它揭示了AI在情緒支持方面的局限性,但它并沒有否定AI的價值。相反,它提醒未來設計AI輔助系統時,需要更加關注用戶的感知與深度信任問題。
譬如在2024年,一家由前“深度思維”研究員擔任首席執行官的公司“Hume AI”,發布了一款標榜為“第一個具有情商的對話式AI”的共情語音接口,其能夠檢測到用戶53種不同的情緒。“Hume AI”演示之后反響十分熱烈。但立刻有人擔心,人類的情感并不只有正面情緒,當AI試著了解甚至學習人們的情感行為時,是否會主動或被動地利用其來達到某些目的?譬如誘導購物、養成惡習、心理折磨等等。
在最新研究中,人與AI的互動大多簡短,只有一兩輪對話。而在現實中,很多人已經在使用AI陪伴應用進行長期的情感交流,它們可以通過持續對話建立起某種“虛擬親密感”,也許能在更長時間尺度上改變人們對AI共情能力和引導能力的看法。
未來,或許我們可以期待一種新的模式——AI不再是“替代人類”的情緒支持者,而是“增強人類共情力”的工具。譬如幫助心理咨詢師快速識別情緒關鍵詞,或是為孤獨的人提供即時陪伴,直到他們能夠接觸到真實的人際關系。
在這個人機共存的時代,我們需要重新定義什么是“真實的共情”,以及深入思索:我們是否愿意給AI一個機會,去成為那個溫柔地問一句“你還好嗎?”的存在。(記者 張夢然)
免責聲明:凡本網注明“來源:XXX(非駐馬店廣視網、駐馬店融媒、駐馬店網絡問政、掌上駐馬店、駐馬店頭條、駐馬店廣播電視臺)”的作品,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責,作品版權歸原作者所有,如有侵犯您的原創版權請告知,我們將盡快刪除相關內容。凡是本網原創的作品,拒絕任何不保留版權的轉載,如需轉載請標注來源并添加本文鏈接:http://www.hiddenladdercollective.com/showinfo-33-359037-0.html,否則承擔相應法律后果。