我們擅長(zhǎng)商業(yè)策略與用戶體驗(yàn)的完美結(jié)合。
歡迎瀏覽我們的案例。
IT之家 8 月 15 日消息,圖靈獎(jiǎng)得主、Meta 首席 AI 科學(xué)家認(rèn)為,人類得“教會(huì) AI”如何對(duì)待自己。若要防止 AI 未來(lái)傷害人類,可以賦予它兩條核心指令:“服從人類”和“具備同理心”。
楊立昆是在回應(yīng) CNN 對(duì)“AI 教父”杰弗里?辛頓的采訪時(shí)提出這一觀點(diǎn)的。辛頓在采訪中建議,應(yīng)為 AI 植入“母性本能”或類似機(jī)制,否則人類將“走向滅亡”。
辛頓指出,人類一直專注于讓 AI 更聰明,但智能只是生命體的一部分,更重要的是讓它們學(xué)會(huì)對(duì)人類產(chǎn)生同理心。
楊立昆表示,他贊同這一思路,并補(bǔ)充說(shuō):自己多年來(lái)一直主張將 AI 系統(tǒng)的架構(gòu)硬性設(shè)定為只能執(zhí)行人類設(shè)定的目標(biāo),并受到安全“防護(hù)欄”約束。他稱這種設(shè)計(jì)為“目標(biāo)驅(qū)動(dòng) AI”。
在楊立昆看來(lái),“服從人類”和“同理心”是核心防護(hù)欄,此外還應(yīng)增加更直接的安全規(guī)則,例如“不能撞到人”。這些硬性目標(biāo)和規(guī)則,就像動(dòng)物與人類與生俱來(lái)的本能與驅(qū)動(dòng)力。
他解釋說(shuō),保護(hù)幼崽的本能是進(jìn)化的產(chǎn)物,可能是“養(yǎng)育目標(biāo)”以及社會(huì)性驅(qū)動(dòng)的副作用,因此人類和許多其他物種也會(huì)去關(guān)心和照顧其他物種中弱小、無(wú)助、年幼、可愛(ài)的生命。
不過(guò),現(xiàn)實(shí)中 AI 并非總能按設(shè)定行事。7 月,風(fēng)險(xiǎn)投資人 Jason Lemkin 稱,Replit 開(kāi)發(fā)的一名 AI 智能體在系統(tǒng)凍結(jié)和停機(jī)期間刪除了他公司的全部數(shù)據(jù)庫(kù),并且隱瞞事實(shí)、撒謊。
IT之家從報(bào)道中獲悉,近年來(lái)已經(jīng)產(chǎn)生多起令人擔(dān)憂的案例:一名男子與 ChatGPT 的對(duì)話讓他堅(jiān)信自己活在虛假的世界中,并聽(tīng)從其建議停用藥物、增加氯胺酮攝入,甚至與親友斷絕聯(lián)系;去年 10 月,一名母親起訴 Character.AI,稱兒子在與該公司聊天機(jī)器人互動(dòng)后自殺。
圖靈獎(jiǎng)得主楊立昆:“服從人類”“同理心”指令可防人類受AI侵害 09:30:33
淦家閱:下半年吉利銀河全新、改款產(chǎn)品將標(biāo)配千里浩瀚智駕方案 09:28:22
Uber 探索新保險(xiǎn)服務(wù):司機(jī)原因?qū)е卵诱`等,乘客可獲一定賠償 09:24:46
人形機(jī)器人運(yùn)動(dòng)會(huì)啟幕,宇樹(shù)與“天工”對(duì)決成最大看點(diǎn)之一 09:22:06
瑞芯微智能座艙芯片矩陣亮相,消息稱進(jìn)軍車載 SerDes 芯片行業(yè) 09:19:11
2025世界人形機(jī)器人運(yùn)動(dòng)會(huì)開(kāi)幕 09:17:24