您的位置:首頁 > 快訊 >

今亮點!AI向善,一道恒久的考題


【資料圖】

原標(biāo)題:AI向善,一道恒久的考題

美劇《西部世界》和好萊塢電影《終結(jié)者》里曾描繪,人工智能(AI)的“覺醒”可能危及人類。最近,科幻片中的擔(dān)憂照進(jìn)現(xiàn)實,有不少人工智能業(yè)界“大佬”突然呼吁暫停開發(fā)更強大的AI系統(tǒng),提出具有人類水平智能的AI系統(tǒng)可能“對社會和人類構(gòu)成潛在風(fēng)險”。(3月30日中新網(wǎng))

在美國知名企業(yè)家埃隆·馬斯克、人工智能專家約書亞·本吉奧等人聯(lián)名簽署一封公開信后,這種擔(dān)憂達(dá)到了一個新的水準(zhǔn)。在這封信里,他們呼吁暫停開發(fā)比GPT-4更強大的AI系統(tǒng)至少6個月,稱其“對社會和人類構(gòu)成潛在風(fēng)險”。從他們拋出的四個疑問來看,這些擔(dān)憂集中在:人工智能可能會傳播謊言,可能從事人類已經(jīng)做得相當(dāng)令人滿意的工作,并直至人類在人機(jī)博弈中全面落敗。而所有這些疑慮可以歸結(jié)為一個終極之問,人工智能開發(fā)是否會危及人類文明進(jìn)程?答案恐怕如同著名物理學(xué)家霍金所指出的,強大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情,但我們還不知道答案。

那么,AI的發(fā)展真的到了按下“暫停鍵”的時刻?其實,發(fā)展人工智能與防范人工智能作惡如同“矛與盾”,二者是相互促進(jìn)的關(guān)系。如果徹底停止發(fā)展人工智能,那么人類恐怕也難以找到引導(dǎo)其向善的辦法。所以,這封公開信是在提醒人們,必須從研發(fā)人工智能的危險競賽中“后退一步”,當(dāng)下迫切需要讓研發(fā)活動重新聚焦于使該項技術(shù)變得“更加準(zhǔn)確、安全、可解釋、透明、穩(wěn)健、一致、可信且可靠”。

換言之,人類對人工智能的擔(dān)心都源于一種執(zhí)著的追求——期望AI向善發(fā)展。為此,埃隆·馬斯克等通過公開信建議,共同開發(fā)和實施一套用于高級AI設(shè)計和開發(fā)的共享安全協(xié)議,并由獨立的外部專家進(jìn)行嚴(yán)格審計和監(jiān)督。同時,開發(fā)人員和政策制定者應(yīng)加強合作,大幅加快強大的AI治理系統(tǒng)的開發(fā)。筆者認(rèn)為,其中的關(guān)鍵詞是合作和共治。也就是說,為了給全生命周期的人工智能科學(xué)地設(shè)置技術(shù)、倫理和法律的邊界,必須促使政府、學(xué)界、企業(yè)、用戶共同參與進(jìn)來。唯有如此,方能實現(xiàn)AI創(chuàng)新發(fā)展與安全治理的深度協(xié)同。

未來,人工智能的開發(fā)會日益呈現(xiàn)網(wǎng)絡(luò)化和多中心發(fā)展的態(tài)勢,尤須深化國際合作和全球治理。毫無疑問,這一過程推進(jìn)的深度和廣度,決定著人工智能如何持續(xù)地造福人類。(楊博)

標(biāo)簽:

相關(guān)閱讀