Copyright 2018-2025 報紙迷 版權所有 京ICP備2018136890號
人工智能無論多么強大,都必須始終是由人類主導的工具。”圖靈獎得主姚期智曾這樣表示。
10月22日,未來生命研究所(Future of Life Institute,FLI)宣布,一項由全球知名的人工智能科學家、政策制定者、商業領袖及其他社會各界知名人士共同簽署、匯聚不同政治與社會背景的空前廣泛共識的倡議正式發布,呼吁在“超級智能”技術被科學界普遍認定為可控、安全,并獲得公眾廣泛支持之前,暫停其進一步發展。
有報道稱,截至10月23日中午,這份聲明的簽署人數已經超過3000人。在中國學術界,多位知名學者參與聯署此次倡議,包括姚期智、清華大學公共管理學院院長薛瀾、清華大學智能產業研究院院長張亞勤以及人工智能倫理與治理專家曾毅。他們的參與和主張呼應了中國長期倡導的“安全、可靠、可控”和“以人為本”的人工智能發展理念。
曾毅指出:“直到現在,我們還沒有堅實的科學證據和切實可行的方法來確保超級智能的安全,使其不會給人類帶來災難性的風險,世界尚未準備好迎接不是可控工具的超級智能。”
人工智能先驅杰弗里·辛頓(Geoffrey Hinton)、蘋果公司聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)、維珍集團董事長理查·布蘭森(Richard Branson)也參與了簽名。
蒙特利爾大學教授、全球引用數最高的科學家Yoshua Bengio也指出:“前沿人工智能系統(Frontier AI)可能在未來幾年內,在大多數認知任務上超越絕大多數人類個體。這些技術進展有望為全球重大挑戰帶來突破性解決方案,但同時也伴隨重大潛在風險。要安全地邁向“超級智能”,我們必須通過科學手段設計出在根本上無法傷害人類的人工智能系統——無論是由于目標偏差,還是被惡意利用。同時,公眾也應在塑造人類共同未來的決策中擁有更強的話語權。
未來生命研究所同期發布的一項美國全國性民意調查顯示,公眾對當前人工智能的發展方向普遍不滿。僅有5%的受訪者支持目前“無監管的AI開發現狀”,而高達73%的受訪者支持建立更為嚴格的監管機制,另有64%的受訪者認為,在科學界尚未就安全與可控性達成共識之前,不應開發“超級智能”。
所謂“超級智能”,是指能夠在大多數認知任務上全面超越人類的人工智能系統。多位人工智能領域的頂尖專家認為,這樣的系統可能在十年內出現,但人類目前尚且無法確保如何對其進行有效控制,應通過“可控的人工智能工具”來推動安全創新,聚焦解決醫療、能源、教育等具體領域的實際問題。
倡議與調查結果共同反映出一個正在形成的全球共識:盡管人工智能蘊藏著推動人類進步與繁榮的巨大潛力,但在缺乏安全保障的情況下,盲目發展超級智能,可能帶來災難性后果。
倡議強調,若人工智能作為“可控工具”應用于科學、醫療與教育等領域,將有助于推動以人為本的人工智能復興,促進人類福祉與全球可持續發展。然而,目前部分科技企業仍在缺乏監管、約束與公眾同意的情況下,推動潛在危險的技術發展