热久久免费精品视频,午夜激情福利,国产精品午夜免费福利视频,99热在线精品免费播放6,免费无码一级成年片,超碰在线播放黄片,亚洲视频欧洲视频日本视频

極為罕見!頂級大佬齊呼吁:暫停超級智能研發(fā)

時間:2025-11-30 19:02:37來源:素昧平生網(wǎng)作者:時尚

據(jù)統(tǒng)計截至23日中午,極為級智這份聲明的頂級大佬簽署人數(shù)已經超過3000人。在中國學術界,齊呼多位知名學者參與聯(lián)署此次倡議,吁暫包括姚期智、停超清華大學公共管理學院院長薛瀾、極為級智清華大學智能產業(yè)研究院院長張亞勤以及人工智能倫理與治理專家曾毅。頂級大佬他們的齊呼參與和主張呼應了中國長期倡導的“安全、可靠、吁暫可控”和“以人為本”的停超人工智能發(fā)展理念。

“超級智能的極為級智前景已經引起了人們的關注,其影響從人類經濟的頂級大佬落伍和權力的剝奪,自由、齊呼公民權利、吁暫尊嚴和控制權的停超喪失,到國家安全風險,甚至可能導致人類滅絕?!焙灻邆儑勒?。倡議明確指向,超級智能并非傳統(tǒng)意義上的“算法偏見”或“就業(yè)沖擊”問題,而是潛在的系統(tǒng)性風險;一旦AI能力全面超越人類,其目標函數(shù)若與人類利益錯位,可能導致不可逆的社會后果。

事實上,早在人工智能爆發(fā)元年的2023年,出于對AI的擔憂,包括馬斯克、斯蒂夫·沃茲尼亞克在內的1000多名人工智能專家和行業(yè)高管就曾集體簽署過一份公開信,呼吁人類暫停開發(fā)更強大的人工智能至少6個月。而更早之前,著名物理學家霍金生前曾與多位科技界名人發(fā)表聯(lián)署公開信,表示人工智能對人類的威脅更甚于核武器。

“世界尚未準備好迎接不是可控工具的超級智能。”參與本次聯(lián)署的北京前瞻人工智能安全與治理研究院院長,中國科學院自動化研究所研究員曾毅在個人微信朋友圈直言:“目前我們還沒有堅實的科學證據(jù)和切實可行的方法來確保超級智能的安全,使其不會給人類帶來災難性的風險?!?/p>

所謂“超級智能”,是指在所有核心認知任務上全面超越人類能力的人工智能形式。

“如果以50年為限,超級智能一定會到來”。這是曾毅在2024年底的央視直播中曾下過的斷語。當記者拋出“人工智能超過人類智慧,擁有人類情感的這一天是否會到來?”的問題時,曾毅想提出的卻是另一個問題:當超級智能到來的時候,人類是不是能夠做好準備?

“有一個觀點說AI是中立的,對此我極不認同。其實人類的偏見、歧視、仇恨是會被內化到AI中,沒有任何一種構造超級智能的方式是沒有風險的?!痹谠憧磥?,一旦選定了正確的方式去構造AI,它的智能水平必然會超越人類,但與此同時,受益于正確價值護欄的超級智能也可以是超級利他的,超級共情的,因此他認為反而是“擁有自我的AI才會令人類社會更安全。”

曾毅曾經預測,和現(xiàn)在的智能體大多使用硅基材料不同,未來的類腦智能體有可能會使用生物材料。以前的智能體是存算分離的,類腦智能的硬件可以存算一體,與擔心機器人取代就業(yè)機會相比,人們對超級智能體的擔憂則因未知而充滿不確定性。

參與本次聯(lián)署呼吁的圖靈獎得主、深度學習三巨頭之一的約書亞·本吉奧(Yoshua Bengio)也指出,要安全地邁向“超級智能”,我們必須通過科學手段設計出在根本上無法傷害人類的人工智能系統(tǒng)——無論是由于目標偏差,還是被惡意利用。同時他曾多次在公開場合強調,公眾也應在塑造人類共同未來的決策中擁有更強的話語權。

記者觀察到,發(fā)起本次倡議的未來生命研究所,同期還曾發(fā)布一項美國全國性民意調查,顯示公眾對當前人工智能的發(fā)展方向普遍不滿。僅有5%的受訪者支持目前“無監(jiān)管的AI開發(fā)現(xiàn)狀”,而高達73%的受訪者支持建立更為嚴格的監(jiān)管機制,另有64%的受訪者認為,在科學界尚未就安全與可控性達成共識之前,不應開發(fā)“超級智能”。

從宏觀趨勢看,AI風險治理的國際分歧正在加劇。美國與歐盟正推動不同版本的“AI法案”,其中歐盟強調透明度與可追溯性,美國則側重市場自律與行業(yè)標準化。有分析認為,此次倡議或可推動G20或聯(lián)合國層面的技術倫理議題重啟,使AI治理從自律階段走向多邊協(xié)商階段。

來源:南方都市報

編輯:趙野平

相關內容
推薦內容