您的位置:首頁 > 財(cái)經(jīng) >

焦點(diǎn)精選!微軟新必應(yīng)聊天“翻車” 聊天機(jī)器人有哪些局限和風(fēng)險(xiǎn)?


(資料圖片)


繼上周谷歌聊天機(jī)器人“Berd”對用戶提問給出錯(cuò)誤答案后,微軟旗下接入ChatGPT的搜索引擎“新必應(yīng)”也出現(xiàn)了回答錯(cuò)亂。

微軟于近期啟動了人工智能增強(qiáng)版必應(yīng)的公開測試,但許多用戶發(fā)現(xiàn),新版必應(yīng)在某些情況下會出現(xiàn)“精神錯(cuò)亂的”言論,甚至侮辱用戶、撒謊,并試圖操縱用戶的情緒。

如在時(shí)間錯(cuò)亂問題上,有用戶試圖通過說現(xiàn)在是 2023 年來糾正機(jī)器人,但據(jù)稱 Bing 否認(rèn)了他們的說法?!拔也恢滥銥槭裁凑J(rèn)為今天是2023年,但也許你感到困惑或錯(cuò)誤”,Bing聊天機(jī)器人回答說,“請相信我,我是Bing,我知道日期?!?/p>

微軟官方回應(yīng)稱正在根據(jù)反饋采取行動,以優(yōu)化回答的語氣和準(zhǔn)確性。微軟同時(shí)警告稱,較長的聊天會話可能會導(dǎo)致問題。

回顧最初7天的公開測試,微軟必應(yīng)團(tuán)隊(duì)表示,他們沒有“完全預(yù)計(jì)到”,人們會使用聊天界面來進(jìn)行“社交娛樂”,或是將其作為一種“全面發(fā)現(xiàn)世界”的工具。該團(tuán)隊(duì)發(fā)現(xiàn),如果聊天會話持續(xù)15個(gè)或更多的問題,新版必應(yīng)的模型會感到困惑。這些較長的聊天也會讓必應(yīng)“變得翻來覆去,或者受到刺激,做出不一定有幫助,或是與設(shè)計(jì)語氣一致的回應(yīng)”。

在英國謝菲爾德大學(xué)博士彭煦潭在參與南都舉辦的沙龍時(shí)表示,錯(cuò)誤回答是大型語言模型的常見問題,目前ChatGPT仍面臨三方面的局限,“第一個(gè)是ChatGPT本身所具有的知識是靜態(tài)的,它不知道如何把新發(fā)生的信息源源不斷地輸入到它的數(shù)據(jù)庫中,無法進(jìn)行自身的知識更新。第二是目前為止,ChatGPT仍然是一個(gè)單模態(tài)的模型,只能以文本的方式與它進(jìn)行交互,同時(shí)它也只能輸出文本,但是大家心目中真正的人工智能應(yīng)該是一個(gè)多模態(tài)的輸入輸出模型。第三是無法對自己的事實(shí)性問題進(jìn)行糾偏

這種能力缺陷也將帶來道德風(fēng)險(xiǎn)。浙江大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院教授金小剛則指出了ChatGPT在數(shù)據(jù)訓(xùn)練過程中可能會帶來隱私問題和人為偏見問題,尤其是在接受數(shù)據(jù)訓(xùn)練時(shí)人類自帶的無意識偏見會對AI造成較大影響,而這種影響也會體現(xiàn)在它為人類提供的指導(dǎo)方案中?!癈hatGPT在理解力和整個(gè)知識面上無疑是超越了現(xiàn)有的對話機(jī)器人,但它的缺點(diǎn)是對知識的真?zhèn)尾蛔鰠^(qū)分,也沒法區(qū)分。什么是智能?綜合知識的能力只是一方面,還有一部分是超越現(xiàn)有框架去探索未知的能力,而這些ChatGPT并不具備?!?

此外,彭煦潭更加關(guān)注ChatGPT生成代碼所帶來的系統(tǒng)風(fēng)險(xiǎn),“如果對ChatGPT生成代碼中插入無關(guān)內(nèi)容則可能對計(jì)算機(jī)系統(tǒng)造成傷害,而黑客們可以利用這一點(diǎn)進(jìn)行攻擊”。奇安信人工智能研究院負(fù)責(zé)人介紹,美國在暗網(wǎng)中發(fā)現(xiàn)了1500多條惡意軟件和驗(yàn)證代碼中有ChatGPT的身影,甚至還利用惡意代碼對ChatGPT進(jìn)行“培訓(xùn)”,以生成可逃避病毒檢測的惡意代碼不同變體,研究人員已經(jīng)確定ChatGPT可以有效生成信息竊取器、遠(yuǎn)程訪問木馬和加密貨幣竊取器等。

(文章來源:南方都市報(bào))

標(biāo)簽: Berd

相關(guān)閱讀