AI停滯6個月:消失的Sam Altman與一封公開信_環(huán)球最新
AI停滯6個月:消失的Sam Altman與一封公開信
圖源:視覺中國
(資料圖)
文/福布斯中國
數(shù)千名科技界專家聯(lián)合簽署了一份由生命未來研究所(Future of Life)發(fā)起的“ 暫停巨型人工智能實驗”的公開信。
響應(yīng)名單包括特斯拉和推特的首席執(zhí)行官埃隆·馬斯克 (Elon Musk) 、蘋果聯(lián)合創(chuàng)始人斯蒂夫·沃茲尼亞克 (Stephen Wozniak) 、蒙特利爾學習算法研究所所長約書亞·本吉奧 (Yoshua Bengio) 等業(yè)界大佬。
這封公開信呼吁 所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統(tǒng)的訓練,暫停時間至少為6個月,并建議如果不暫停,應(yīng)該政府強制暫停。
在經(jīng)歷了9個月指數(shù)級進步后,人工智能行業(yè)選擇主動剎車,或許并非是因為它已經(jīng)創(chuàng)造了社會矛盾,而是它在商業(yè)化普及后可能會帶來的更大未知。
該公開信簽名的發(fā)起方,生命未來研究所(Future of Life Institute,F(xiàn)LI)是一家位于美國波士頓地區(qū)的研究與推廣機構(gòu),創(chuàng)立于2014年3月,以“引導變革性技術(shù)造福生活,遠離極端的大規(guī)模風險”為使命。FLI致力于降低人類所面臨的風險,目前主要關(guān)注人工智能、生物技術(shù)、核武器以及氣候變化這四個議題。
該機構(gòu)創(chuàng)始人包含麻省理工學院宇宙學家馬克斯·泰格馬克,Skype聯(lián)合創(chuàng)始人讓·塔林,哈佛大學博士生維多利亞·克拉科夫那(Viktoriya Krakovna),波士頓大學博士生、泰格馬克之妻美雅·赤塔-泰格馬克(Meia Chita-Tegmark)與加州大學圣克魯茲分校宇宙學家安東尼·阿吉雷等。
FLI的外部顧問,圖源:futureoflife.org
在本份倡議之前,生命未來研究所已經(jīng)對美國國家標準技術(shù)研究院 (NIST) 人工智能風險管理框架初稿進行過反饋?!癆I 風險管理框架” (AI RMF) 是2020 年美國國會已要求美國國家標準與技術(shù)研究院 (NIST) “為可信賴的人工智能系統(tǒng)開發(fā)自愿風險管理框架。”
生命未來研究所在對該項管理框架反饋中強調(diào): 在人工智能技術(shù)介入后,信息提供者與信息接收者的新利益沖突。他們認為通過人工智能技術(shù),信息提供者有更大的機會和動機,以操縱信息接受者行為。同時其在該份反饋中也明確表達了人工智能監(jiān)管缺乏風險預警的方法論。
截至發(fā)稿,生命未來研究所的這份公開信已有1125人簽署。
值得一提的是,提交公開信簽名需要經(jīng)過人工審核,但這次的簽署人中短暫地出現(xiàn)了Open AI首席執(zhí)行官山姆·阿爾特曼 (Sam Altman) 的名字,后來又很快被移除。本周也有消息傳出,GPT-5已經(jīng)完成研發(fā)。山姆·阿爾特曼本人也并未對此事發(fā)表任何看法。
部分響應(yīng)者名單
Yoshua Bengio
圖靈獎獲得者,人工智能深度學習發(fā)展的奠基人
Steve Wozniak
蘋果聯(lián)合創(chuàng)始人
Andrew Yang
2020年美國總統(tǒng)大選候選人,暢銷書作家
John Hopfield
普林斯頓大學教授,關(guān)聯(lián)神經(jīng)網(wǎng)絡(luò)的發(fā)明者
Yuval Noah Harari
以色列未來學家
《人類簡史》系列暢銷書的作者
Yoshua Bengio作為AI界的頂級專家在該份倡議書中第一位簽字,此外他也是圖靈獎三巨頭中唯一一位至今仍然留在學術(shù)界的AI老炮。另外兩位分別為Geoffrey Hinton和Yann LeCun。這三位是目前公認的多層構(gòu)建深層網(wǎng)絡(luò)(之后被業(yè)界稱為“深度學習”)的重要推動者。
這樣的倡議并非FLI的首個。早在《AI Magazine》2015年冬季號上,Stuart Russell, Daniel Dewey, Max Tegmark等“生命未來研究所”的研究者公布了一份題為《邁向穩(wěn)健和有益人工智能的優(yōu)先考量研究方案》(Research Priorities for Robust and Benefcial Artifcial Intelligence) 的文章,旨在提倡就方興未艾的人工智能技術(shù)對社會所造成的影響做認真的調(diào)研。
《邁向穩(wěn)健和有益人工智能的優(yōu)先考量研究方案》,圖源:futureoflife.org
據(jù)生命未來研究所網(wǎng)站介紹,英國物理學家斯蒂芬·霍金和美國高科技企業(yè)家埃隆·馬斯克,以及許多其他的人工智能專家等八千多人在當時簽署了這份關(guān)于人工智能的公開信。
但本次公開信的倡議更加尖銳,其所強調(diào)的重點終于落在了,人工智能系統(tǒng)具有與人類競爭的智能,這可能對社會和人類造成深遠的風險。
根據(jù)阿西洛馬人工智能原則指出,先進的 AI 可能代表著地球生命歷史上的深刻變革,應(yīng)該以相應(yīng)的關(guān)注和資源來計劃和管理。但隨著最近幾個月 AI 實驗室陷入一場無法控制的競賽,試圖開發(fā)和部署越來越強大的數(shù)字智能,這種規(guī)劃和管理并未實現(xiàn),甚至連它們的創(chuàng)造者也無法理解、預測或可靠地控制這些智能。
本次倡議的核心觀點
1. 我們是否應(yīng)該讓機器用宣傳和謊言充斥我們的信息渠道?
2. 我們應(yīng)該自動化所有的工作?
3. 我們是否應(yīng)該發(fā)展最終可能超越我們、取代我們的非人類思維?我們應(yīng)該冒險失去對我們文明的控制嗎?
對于這些重要的決定,公開信表示,現(xiàn)代AI系統(tǒng)正逐漸在通用任務(wù)上實現(xiàn)與人類競爭的水平,只有當我們確信AI系統(tǒng)的影響是積極的,風險是可控的時候,才應(yīng)該開發(fā)強大的AI系統(tǒng)。
此外,AI實驗室和獨立專家應(yīng)該利用這個暫停期共同制定和實施一套共享的AI設(shè)計和開發(fā)安全協(xié)議,這些協(xié)議應(yīng)由獨立的外部專家嚴格審核和監(jiān)督,應(yīng)確保遵守它們的系統(tǒng)在合理懷疑范圍之外是安全的。這并不意味著暫停整個AI領(lǐng)域的發(fā)展,而僅僅是從危險的競賽中退一步,避免研究更大、更難以預測、具有突現(xiàn)性能力的黑箱模型。
附公開信原文翻譯
原文鏈接:https://futureoflife.org/open-letter/pause-giant-ai-experiments/
正如廣泛的研究和頂級人工智能實驗室所承認的那樣,具有與人類媲美的智能的AI系統(tǒng)可能對社會和人類構(gòu)成深刻的風險。也正如被廣泛認可的阿西洛馬人工智能原則所指出的那樣,先進的AI可能代表著地球生命歷史上的深刻變革,應(yīng)該以相應(yīng)的關(guān)注和資源來計劃和管理。不幸的是,盡管最近幾個月AI實驗室正陷入一場無法控制的競賽,試圖開發(fā)和部署越來越強大的數(shù)字智能,但這種規(guī)劃和管理并未實現(xiàn),甚至連它們的創(chuàng)造者也無法理解、預測或可靠地控制這些智能。
隨著當代AI系統(tǒng)正逐漸在一般任務(wù)上實現(xiàn)與人類競爭的水平,我們必須問自己:我們應(yīng)該讓機器充斥我們的信息渠道,散布宣傳和不實信息嗎?我們應(yīng)該自動化所有工作,包括那些令人有成就感的工作嗎?我們應(yīng)該發(fā)展可能最終比我們更多、更聰明、更先進、能取代我們的非人類智能嗎?我們應(yīng)該冒著失去對文明的控制的風險嗎?這些決定不應(yīng)該被委托給未經(jīng)選舉的技術(shù)領(lǐng)袖。只有當我們確信AI系統(tǒng)的影響是積極的,其風險是可控的時候,才應(yīng)該開發(fā)強大的AI系統(tǒng)。這種信心必須有充分的理由,并隨著系統(tǒng)潛在影響的增加而增加。OpenAI最近關(guān)于人工智能的聲明指出:“在某個時候,可能需要在開始訓練未來系統(tǒng)之前獲得獨立審查,并要求最先進的努力同意限制用于創(chuàng)建新模型的計算增長?!蔽覀儗Υ吮硎就狻,F(xiàn)在就是那個時候。
因此,我們呼吁所有AI實驗室立即暫停至少6個月的時間,停止訓練比GPT-4更強大的AI系統(tǒng)。這個暫停應(yīng)該是公開和可驗證的,并包括所有關(guān)鍵參與者。如果這樣的暫停無法迅速實施,政府應(yīng)該介入并實行一個暫停令。
AI實驗室和獨立專家應(yīng)該利用這個暫停期共同制定和實施一套共享的AI設(shè)計和開發(fā)安全協(xié)議,這些協(xié)議應(yīng)由獨立的外部專家嚴格審核和監(jiān)督。這些協(xié)議應(yīng)確保遵守它們的系統(tǒng)在合理懷疑范圍之外是安全的。這并不意味著暫停整個AI領(lǐng)域的發(fā)展,而僅僅是從危險的競賽中退后一步,避免研究更大、更難以預測、具有突現(xiàn)性能力的黑箱模型。
AI研究和發(fā)展應(yīng)該重新聚焦于使現(xiàn)有的強大、最先進的系統(tǒng)更加準確、安全、可解釋、透明、穩(wěn)健、一致、可信和忠誠。
同時,AI開發(fā)人員必須與政策制定者合作,大力加速AI治理系統(tǒng)的發(fā)展。這些治理系統(tǒng)至少應(yīng)包括:專門負責AI的新型和有能力的監(jiān)管機構(gòu);對高能力AI系統(tǒng)和大量計算能力的監(jiān)督和跟蹤;用于區(qū)分真實與合成內(nèi)容并跟蹤模型泄漏的來源和水印系統(tǒng);強大的審計和認證生態(tài)系統(tǒng);對AI造成的損害承擔責任;對技術(shù)AI安全研究的強大公共資金支持;以及應(yīng)對AI帶來的劇變(尤其是對民主制度)的經(jīng)濟和政治破壞的資源充足的機構(gòu)。
人類可以與AI共享一個美好的未來。在成功創(chuàng)建強大的AI系統(tǒng)之后,我們現(xiàn)在可以享受一個“AI的夏天”,在這個夏天里,我們可以收獲成果,為所有人明確地造福,并給社會一個適應(yīng)的機會。我們的社會已經(jīng)在其他可能對社會產(chǎn)生災(zāi)難性影響的技術(shù)上按下了暫停鍵。我們在這里也可以做到。讓我們享受一個漫長的AI之夏吧,而不是毫無準備地沖進秋天。
相關(guān)新聞
- AI停滯6個月:消失的Sam Altman與一封公開信_環(huán)球最新
- 廣東省地震局:近幾日佛山三水原震區(qū)續(xù)發(fā) 5 級以上地震可能性不大
- qq空間日志怎么批量刪除
- 《政企面面觀》回顧 | 乘“數(shù)”而行 海闊天空
- 全球熱資訊!原生態(tài)音樂“跨越江河”:南京劇院奏響《從黃河到長江》
- 僅僅2天,娛樂圈的瓜就這么生猛?海邊激吻,隱瞞婚史,拖欠工資
- 股票頂背離是什么意思
- 梅西17分鐘上演帽子戲法_一夜刷新兩項紀錄 打進國家隊生涯第102球! 通訊
- 當前觀點:印度尼西亞阿納喀拉喀托火山多次噴發(fā)
- 鎮(zhèn)江文旅集團25億元私募項目狀態(tài)更新為“已反饋”
- 中鐵信托助力中鐵四局成功發(fā)行建筑業(yè)全國首單無增信資產(chǎn)證券化產(chǎn)品
- 資本競逐新賽道 高端制造新能源等熱度攀升
- 回車符號在哪_回車符號
- 私家車變身運營車,保險公司拒賠,法院怎么判?
- 焦點!3月28日22時海南陵水疫情最新消息 3月28日22時海南陵水今日確診人數(shù)
- 蘇州南站項目建設(shè)提速,地下工程進入主體結(jié)構(gòu)施工階段
- 明裝暖氣片一般要多久(明裝暖氣片安裝一般要多久) 世界今頭條
- 養(yǎng)老保險產(chǎn)品介紹,2023值得買的商業(yè)養(yǎng)老保險有哪些? 全球通訊
- 全球唯一的女兒國,整個部落沒有一個男人,繁衍方式讓人大跌眼鏡 環(huán)球觀速訊
- “抖靚宣漢·V你精彩”引領(lǐng)自媒體新風尚