Elon Musk等千人聯署 籲暫停開發比GPT-4更強大AI

Elon Musk等千人聯署 籲暫停開發比GPT-4更強大AI
撰文:許懿安
出版:更新:

美國富豪馬斯克(Elon Musk)、人工智能專家及業界高層等聯署公開信,呼籲暫停訓練那些比GPT-4更強大的AI模型為期至少6個月,認為它們對社會及人類帶來潛在風險。

信件由非牟利組織Future of Life Institute發布,有逾1,000人聯署,包括馬斯克及蘋果公司(Apple Inc.)聯合創辦人沃茲尼亞克(Steve Wozniak)等。內文稱是時候對未來的AI系統進行獨立審查,確保其安全標準。

內文指出,AI實驗室和獨立專家應該利用這次暫停共同開發和實施一套由獨立外部專家嚴格審計和監督的、先進人工智能設計和開發的共享安全協議。

全球專家齊聚巴黎 聚焦監管AI人工智能

撰文:聯合早報
出版:更新:

全球各地的專家呼籲對人工智能(AI)實施更嚴格的監管,以防止其超出人類控制。當前,全球領導人正齊聚巴黎,準備出席一場關於人工智能的高峰會議。

法媒報道,此次會議由法國和印度聯合舉辦,於2月10日至11日舉行。與2023年英國布萊切利公園及2024年韓國首爾的會議不同,法國此次將重點放在2025年人工智能的實際行動上,而非單純關注安全問題。

法國提出的願景是促使各國政府、企業及其他相關方支持人工智能的全球治理,並承諾推動可持續發展,而不是直接制定具有約束力的規則。

法國總統馬克龍的AI特使布夫羅(Anne Bouverot)說:「我們不想把時間都花在討論風險上,同時也有着非常現實的機遇方面需要關注。」

曾多次警示AI危險的美國生命未來研究所(Future of Life Institute)負責人、麻省理工學院物理學家泰格馬克(Max Tegmark)則表明,法國不應錯失這一引領全球行動的機會。

全球風險與人工智能安全準備平台GRASP的協調員侯德斯(Cyrus Hodes)說:「我們已經確定了約300種應對這些風險的工具和技術。」該調查結果將提交給經合組織以及人工智能全球夥伴關係(GPAI)成員。

專家警告:AI可能失控 呼籲加強監管

2月6日,由96位專家編寫,並獲得30個國家、聯合國、歐盟及經濟合作與發展組織(OECD)支持的《國際人工智能安全報告》正式發佈。報告指出,人工智能(AI)技術的快速發展帶來了從在線虛假信息到生物攻擊和網絡攻擊等多種風險。

報告協調員、知名計算機科學家本吉奧(Yoshua Bengio)指出:「越來越多的證據表明額外的風險正在浮現,例如生物攻擊或網絡攻擊。」他還對未來可能發生的「AI失控」問題表示擔憂,指AI系統或出於「自身的生存意志」採取自主行動。

泰格馬克則警告:「目前最大的問題是,許多掌握權力的人仍未意識到,我們距離實現通用人工智能(AGI)比找到控制它的方法更近。」

AGI是指在所有領域都能與人類相媲美甚至超越人類的人工智能。OpenAI首席執行長阿爾特曼曾預言,AGI或在幾年內實現。

泰格馬克指出:「最糟糕的情況是,這些美國或中國的公司失去對這一技術的控制,然後地球就由機器統治了。」

加州伯克利大學計算機科學教授拉塞爾(Stuart Russell)表示,他最擔心的是由人工智能控制的武器系統能夠自主決定攻擊目標和時間。

本文獲《聯合早報》授權轉載

正在加載