近期,一位前OpenAI安全研究員對(duì)外發(fā)聲,表達(dá)了他對(duì)人工智能領(lǐng)域發(fā)展速度的深切憂(yōu)慮。這位名叫史蒂文·阿德勒的專(zhuān)家,對(duì)行業(yè)內(nèi)正在進(jìn)行的關(guān)于通用人工智能(AGI)的激進(jìn)探索提出了警告。
阿德勒指出,AGI是一個(gè)旨在創(chuàng)造能夠執(zhí)行任何智力任務(wù),甚至超越人類(lèi)能力的系統(tǒng)的理論概念。他對(duì)于那些急于推進(jìn)AGI開(kāi)發(fā)的公司表達(dá)了擔(dān)憂(yōu),認(rèn)為這樣的步伐過(guò)于迅速,令人不禁對(duì)人類(lèi)的未來(lái)產(chǎn)生疑慮。
阿德勒在離開(kāi)OpenAI后,通過(guò)一系列網(wǎng)絡(luò)帖子回顧了自己在這家美國(guó)科技巨頭度過(guò)的四年時(shí)光。他坦言,雖然會(huì)懷念OpenAI的許多方面,但對(duì)于人工智能技術(shù)的飛速發(fā)展,他感到十分恐懼。阿德勒表示,當(dāng)他考慮個(gè)人生活和未來(lái)規(guī)劃時(shí),不禁思考人類(lèi)是否能夠跟上人工智能的發(fā)展步伐。
在人工智能領(lǐng)域,專(zhuān)家們的觀點(diǎn)存在分歧。諾貝爾獎(jiǎng)得主杰弗里·辛頓等人擔(dān)憂(yōu),強(qiáng)大的人工智能系統(tǒng)可能會(huì)擺脫人類(lèi)的控制,帶來(lái)災(zāi)難性后果。然而,meta首席人工智能科學(xué)家Yann LeCun等則認(rèn)為,人工智能實(shí)際上有可能成為人類(lèi)的救星,避免滅絕的命運(yùn)。
阿德勒在OpenAI期間,曾領(lǐng)導(dǎo)了首次產(chǎn)品發(fā)布和長(zhǎng)期AI系統(tǒng)安全性的研究工作。對(duì)于OpenAI的核心目標(biāo)——AGI的發(fā)展,他認(rèn)為這是一場(chǎng)風(fēng)險(xiǎn)極高的賭博,可能帶來(lái)巨大的負(fù)面影響。阿德勒強(qiáng)調(diào),目前沒(méi)有任何一個(gè)研究實(shí)驗(yàn)室能夠解決人工智能協(xié)調(diào)問(wèn)題,即確保系統(tǒng)遵循人類(lèi)價(jià)值觀的過(guò)程。而行業(yè)的發(fā)展速度過(guò)快,可能無(wú)法及時(shí)找到解決方案。
阿德勒警告說(shuō),整個(gè)行業(yè)似乎陷入了一種危險(xiǎn)的平衡狀態(tài),需要出臺(tái)真正的安全法規(guī)來(lái)加以約束。他指出,即使某個(gè)實(shí)驗(yàn)室真心希望負(fù)責(zé)任地開(kāi)發(fā)AGI,其他實(shí)驗(yàn)室也可能采取不正當(dāng)手段來(lái)追趕,這將帶來(lái)災(zāi)難性的后果。
值得注意的是,中國(guó)的DeepSeek公司也在積極尋求開(kāi)發(fā)通用人工智能。該公司推出了一種與OpenAI技術(shù)相媲美的模型,盡管其開(kāi)發(fā)資源相對(duì)較少,但仍震驚了美國(guó)科技界。這一舉動(dòng)進(jìn)一步加劇了阿德勒對(duì)行業(yè)發(fā)展的擔(dān)憂(yōu)。
阿德勒呼吁,行業(yè)內(nèi)外應(yīng)共同努力,制定嚴(yán)格的安全規(guī)范,以確保人工智能技術(shù)的健康發(fā)展。他認(rèn)為,只有通過(guò)加強(qiáng)監(jiān)管和合作,才能降低潛在風(fēng)險(xiǎn),保障人類(lèi)的未來(lái)。
對(duì)于阿德勒的警告,業(yè)界內(nèi)外反響不一。一些人認(rèn)為他的擔(dān)憂(yōu)過(guò)于悲觀,而另一些人則認(rèn)為他的觀點(diǎn)值得深思。無(wú)論如何,阿德勒的發(fā)言無(wú)疑為人工智能領(lǐng)域的發(fā)展帶來(lái)了新的思考和討論。
隨著人工智能技術(shù)的不斷進(jìn)步和應(yīng)用領(lǐng)域的不斷拓展,其對(duì)社會(huì)、經(jīng)濟(jì)、文化等方面的影響也日益顯著。因此,如何平衡技術(shù)創(chuàng)新與安全監(jiān)管,確保人工智能技術(shù)的可持續(xù)發(fā)展,成為了一個(gè)亟待解決的問(wèn)題。