您的位置:首頁 > 資訊 >

ChatGPT 情商很高,但事實(shí)表明它并不適合當(dāng)搜索引擎

4 月 26 日消息,美媒稱,目前基于大型語言模型的人工智能工具,例如 ChatGPT,更擅長共情而不是提供準(zhǔn)確的事實(shí)信息。這是因?yàn)樵O(shè)計(jì)者優(yōu)先考慮流暢性而非準(zhǔn)確性。加之訓(xùn)練數(shù)據(jù)庫中包含大量情感信息,將大型語言模型植入搜索引擎的競爭毫無意義。

圖源 Pexels

今年早些時候,普林斯頓大學(xué)計(jì)算機(jī)科學(xué)教授阿爾溫德?納拉亞南(Arvind Narayanan)為自己四歲的女兒開發(fā)了支持 ChatGPT 的語音界面。這不僅是一個實(shí)驗(yàn),更是因?yàn)榧{拉亞南相信,人工智能機(jī)器人有一天會成為女兒生活中的重要組成部分。


(資料圖片僅供參考)

納拉亞南的女兒天生好奇,經(jīng)常問他有關(guān)動物、植物和人體的問題。他認(rèn)為 OpenAI 開發(fā)的 ChatGPT 可以提供有用的答案。令他驚訝的是,一旦他告訴系統(tǒng)正在與小孩對話,這款聊天機(jī)器人就能表現(xiàn)出無可挑剔的共情能力。

納拉亞南的女兒問:“燈滅了會怎么樣?”

“燈滅了,天就黑了,可能會有點(diǎn)嚇人,”ChatGPT 用人工合成的聲音回答道。“但別擔(dān)心!”“你可以做很多事情來讓自己在黑暗中感到安全舒適。”

ChatGPT 隨后提出了一些使用夜燈的建議,并最后提醒:“在黑暗中感到有點(diǎn)害怕很正常。”這個解釋顯然讓納拉亞南的女兒感到很安心。

微軟和谷歌正急于使用大型語言模型技術(shù)來強(qiáng)化搜索引擎。但有充分的理由認(rèn)為,相比于提供事實(shí)性信息,這項(xiàng)技術(shù)更適合作為人們情感上的伴侶。

聽起來可能很奇怪。但無論是谷歌的 Bard 還是微軟的新 Bing,這種人工智能在用于搜索信息時都出現(xiàn)了一系列尷尬的事實(shí)性錯誤。Bard 在首次公開演示時就給出了關(guān)于詹姆斯?韋伯太空望遠(yuǎn)鏡的錯誤信息,而新 Bing 也搞錯了一大堆財(cái)務(wù)報(bào)表數(shù)據(jù)。

當(dāng)人工智能聊天機(jī)器人用于搜索時,出現(xiàn)事實(shí)性錯誤的代價很高。Replika 是一款人工智能應(yīng)用程序,下載量已經(jīng)超過 500 萬次。該應(yīng)用程序的創(chuàng)始人尤金尼亞?庫伊達(dá) (Eugenia Kuyda) 表示,當(dāng)人工智能被設(shè)計(jì)成伴侶時,出現(xiàn)錯誤的代價就要低得多。她說:“這不會影響用戶體驗(yàn),不像搜索,小小錯誤就會破壞用戶對產(chǎn)品的信任?!?/p>

谷歌前人工智能研究員瑪格麗特?米切爾 (Margaret Mitchell) 曾與人合作撰寫過一篇關(guān)于大型語言模型風(fēng)險(xiǎn)的論文。她表示,大型語言模型根本“不適合”作為搜索引擎。這些大型語言模型之所以會出錯,是因?yàn)橛?xùn)練所用的數(shù)據(jù)經(jīng)常包含錯誤信息,而且模型也沒有基本事實(shí)來驗(yàn)證所生成的內(nèi)容。此外,大型語言模型的設(shè)計(jì)者可能優(yōu)先考慮生成內(nèi)容的流暢性,而不是準(zhǔn)確性。

這也是這些工具特別擅長迎合用戶的原因之一。畢竟,目前大型語言模型都是從網(wǎng)上抓取文本進(jìn)行訓(xùn)練,其中包括推特和 Facebook 等社交媒體平臺上發(fā)布的情緒性內(nèi)容,以及 Reddit 和 Quora 等論壇上的個人心理疏導(dǎo)內(nèi)容。電影電視劇中的臺詞、小說中的對話,以及關(guān)于情商的研究論文都進(jìn)入了訓(xùn)練數(shù)據(jù)庫,這使得這些工具更具有同理心。

據(jù)報(bào)道,一些人把 ChatGPT 當(dāng)成機(jī)器人治療師來使用。其中一位說,他們這樣做是為了避免成為別人的負(fù)擔(dān)。

為了測試人工智能的共情能力,人們對 ChatGPT 進(jìn)行了一次在線情商測試。結(jié)果顯示,它表現(xiàn)出色,在社會意識、關(guān)系管理和自我管理方面都獲得了滿分,在自我意識方面只是略有差池。

從某種程度上來說,ChatGPT 在測試中的表現(xiàn)比一些人還要好。

雖然一臺機(jī)器能為人們帶來共情感受有點(diǎn)不真實(shí),但確實(shí)有一定道理。人們天生需要社會聯(lián)系,人類大腦也有能力反映他人感受,這意味著即使對方?jīng)]有真正“感受”到我們的想法,我們也能獲得一種理解感。人類大腦中的鏡像神經(jīng)元會在我們感受到他人的共情時被激活,給我們帶來一種彼此相連的感覺。

當(dāng)然,共情是一個涉及多方面的概念,要想真正體驗(yàn)到這種感覺,人們還是需要與真正的人進(jìn)行交流。

倫敦國王學(xué)院臨床心理學(xué)家托馬斯?沃德 (Thomas Ward) 研究了軟件在心理治療中的作用,他警告人們不要想當(dāng)然地認(rèn)為,特別是在心理問題很嚴(yán)重的情況下,人工智能可以充分滿足人們在心理健康方面的需求。例如,聊天機(jī)器人可能無法理解人的情感復(fù)雜性。換句話說,ChatGPT 很少說“我不知道”,因?yàn)樗谠O(shè)計(jì)上傾向于自信而不是謹(jǐn)慎回答問題。

人們也不應(yīng)該把聊天機(jī)器人作為發(fā)泄情感的習(xí)慣性渠道。沃德說:“在將人工智能聊天機(jī)器人視為消除孤獨(dú)方式的世界里,微妙的人際關(guān)系,例如拉住手或明白何時說話何時傾聽,可能會消失。”

這可能會最終導(dǎo)致更多問題。但就目前而言,人工智能在情感方面的技能至少要比它們掌握的事實(shí)更可靠。

標(biāo)簽:

相關(guān)閱讀