撰文:Ingrid Lunden
來源:TechCrunch
圖片來源:由無界 AI生成
人工智能的前景和危害是如今的熱門話題。有人說人工智能將拯救我們,可以幫助診斷一些惡性疾病、彌補教育領(lǐng)域的數(shù)字鴻溝等。但也有人擔(dān)心它在戰(zhàn)爭、安全、錯誤信息等方面帶來的威脅。它成為了普通人的消遣方式,在商業(yè)領(lǐng)域敲響了警鐘。
人工智能的作用很大,但它還無法讓滿屋子嘰嘰喳喳的嘈雜聲安靜下來。本周,眾多學(xué)者、監(jiān)管者、政府領(lǐng)導(dǎo)、初創(chuàng)企業(yè)、大型科技公司以及數(shù)十家盈利和非盈利組織齊聚英國,將就人工智能展開討論和辯論。
本周三和周四,英國將在布萊切利公園(Bletchley Park)舉辦“人工智能安全峰會”,這是英國首次舉辦此類活動。
峰會籌劃數(shù)月,旨在探討人工智能帶來的一些長期問題和風(fēng)險。峰會的目標(biāo)是理想化的,而不是具體的:“共同理解前沿人工智能帶來的風(fēng)險和采取行動的必要性”、“就前沿人工智能安全開展國際合作的前瞻性進(jìn)程,包括如何最好地支持國家和國際框架”、“各組織應(yīng)采取適當(dāng)措施提高前沿人工智能的安全性”等等。
這種高層次的愿望也反映在與會者的身份上:政府高級官員、行業(yè)領(lǐng)袖和該領(lǐng)域的著名思想家都將出席會議。(據(jù)最新報道:埃隆 - 馬斯克,拜登總統(tǒng)、Justin Trudeau 和 Olaf Scholz 等將出席)。
這場峰會聽起來很特別,而事實也確實如此:峰會的“金門票”(倫敦的科技公司創(chuàng)始人兼作家 Azeem Azhar 如是描述)供不應(yīng)求。據(jù)悉,峰會將是小范圍的,而且大多是封閉式的。這些活動包括在英國皇家學(xué)會(英國國家科學(xué)院)舉行的會談;在多個城市舉行的大型“人工智能邊緣”會議(AI Fringe)以及許多特別工作組的公告等等。
劍橋大學(xué)明德魯技術(shù)與民主中心執(zhí)行主任 Gina Neff 上周在英國皇家學(xué)會舉行的一次關(guān)于科學(xué)與安全的晚間小組討論會上說:“我們將扮演好我們已經(jīng)處理好的峰會的角色。換句話說,在布萊切利舉行的活動將做它該做的事,而不在活動范圍內(nèi)的事情將成為人們集思廣益討論其他問題的機(jī)會?!?/p>
Neff 的小組討論就是一個很好的例子:在英國皇家學(xué)會座無虛席的大廳里,她與人權(quán)觀察組織的代表、大型工會 Unite 的國家官員、專注于全球南部地區(qū)科技公平問題的智庫 Tech Global Institute 的創(chuàng)始人、初創(chuàng)公司 Stability AI 的公共政策負(fù)責(zé)人以及劍橋大學(xué)的計算機(jī)科學(xué)家坐在一起。
與此同時,所謂的人工智能邊緣會議可以說是只是名義上的“邊緣”。由于布萊切利峰會是在一周中的同一個地點舉行,而且來賓名單非常有限,了解會議討論內(nèi)容的機(jī)會也同樣有限,因此人工智能邊緣會議很快就擴(kuò)展到了布萊切利,并充實了會議議程。據(jù)悉,這次活動不是由政府組織的,而是由一家名為 Milltown Partners 的公關(guān)公司(該公司曾代表 DeepMind、Stripe 和風(fēng)險投資公司 Atomico 等公司)組織的,有趣的是,它持續(xù)了整整一周,在全國多個地點舉行,能得到門票的人可以免費參加(許多活動的門票都已售罄),且其中許多會議還提供流媒體服務(wù)。
盡管活動豐富多彩,但讓人非常痛心的一點是,關(guān)于人工智能的討論,盡管才剛剛起步,卻仍然是如此分裂:一個是權(quán)力機(jī)構(gòu)的會議(其中大多數(shù)會議只對受邀嘉賓開放),另一個則是我們其他人的會議。
今天早些時候,由 100 名工會和維權(quán)人士組成的團(tuán)體致信首相,稱政府不讓他們參與布萊切利公園的活動,是在“擠壓”他們在對話中的聲音。(他們可能沒有拿到門票,但他們的反對方式絕對是明智的:該組織通過與《金融時報》等國內(nèi)最精英的經(jīng)濟(jì)刊物分享這封信,將其公之于眾)。
被冷落的不僅僅是普通人。牛津大學(xué)哲學(xué)系講師 Carissa Véliz 在今天的人工智能邊緣活動中說道:“我認(rèn)識的人中沒有一個受到邀請?!?/p>
一些人認(rèn)為,精簡是有好處的。
人工智能研究科學(xué)家 Marius Hobbhahn 是阿波羅研究公司(Apollo Research)的聯(lián)合創(chuàng)始人和負(fù)責(zé)人,該公司正在開發(fā)人工智能安全工具。他認(rèn)為,人數(shù)少也可以引起更多關(guān)注:“房間里的人越多,就越難得出任何結(jié)論,或進(jìn)行有效的討論,”他說。
從更廣泛的意義上講,此次峰會只是一塊“磚”,是目前正在進(jìn)行的更廣泛對話的一部分。上周,英國首相蘇納克(Rishi Sunak)表示打算在英國成立一個新的人工智能安全研究所和一個研究網(wǎng)絡(luò),以便花更多時間和心思研究人工智能的影響;Yoshua Bengio 和 Geoffrey Hinton 為首的一批著名學(xué)者發(fā)表了一篇名為《在快速進(jìn)步的時代管理人工智能風(fēng)險》的論文,集體投入到這一領(lǐng)域;聯(lián)合國也宣布成立了自己的特別工作組,探討人工智能的影響。近日,美國總統(tǒng)喬 - 拜登也發(fā)布了美國自己的行政命令,以制定人工智能安全標(biāo)準(zhǔn)。
最大的爭論之一是,人工智能帶來“生存風(fēng)險”的觀點是否被夸大了,甚至是否是有意為之,以消除對更直接的人工智能活動的審查。
劍橋大學(xué)系統(tǒng)數(shù)學(xué)教授 Matt Kelly 指出,其中一個經(jīng)常被引用的領(lǐng)域是錯誤信息。
“錯誤信息并不新鮮。它甚至不是本世紀(jì)或上世紀(jì)的新事物,”他上周在接受采訪時說?!暗@是我們認(rèn)為人工智能短期和中期存在潛在風(fēng)險的領(lǐng)域之一。而這些風(fēng)險是隨著時間的推移慢慢形成的?!盞elly 是英國皇家科學(xué)學(xué)會的研究員,他說,該學(xué)會在峰會籌備期間還專門針對科學(xué)領(lǐng)域的錯誤信息進(jìn)行了一次紅藍(lán)隊演練,以了解大型語言模型在試圖相互競爭時會有怎樣的表現(xiàn)?!斑@是一種嘗試,試圖更好地理解現(xiàn)在的風(fēng)險是什么”。
英國政府似乎在這場辯論中持兩面態(tài)度,危害因素比它所舉辦的活動名稱“人工智能安全峰會”更為明顯。
蘇納克在上周的演講中說:“現(xiàn)在,我們對所面臨的風(fēng)險還沒有一個共同的認(rèn)識。”“沒有這種共識,我們就無法指望共同應(yīng)對這些風(fēng)險。這就是為什么我們將大力推動就這些風(fēng)險的性質(zhì)達(dá)成首份國際聲明的原因”。
但在設(shè)立峰會時,英國首先將自己定位為制定“當(dāng)我們談?wù)撊斯ぶ悄軙r我們談?wù)撌裁础弊h程的核心參與者,而且它當(dāng)然也有經(jīng)濟(jì)角度。
蘇納克指出:“通過使英國成為安全人工智能領(lǐng)域的全球領(lǐng)導(dǎo)者,我們將吸引更多來自這股新技術(shù)浪潮的新工作和投資?!保ㄆ渌块T也收到了這份備忘錄:內(nèi)政大臣今天與互聯(lián)網(wǎng)觀察基金會(Internet Watch Foundation)以及 TikTok 和 Snap 等多家大型消費應(yīng)用公司共同舉辦了一場活動,以解決人工智能生成的性虐待圖片泛濫的問題)。
讓大科技公司參與進(jìn)來似乎在某一方面有所幫助,但批評者往往認(rèn)為這也是一個問題?!啊氨O(jiān)管捕獲”,即行業(yè)中較大的權(quán)力參與者采取積極措施來討論和制定風(fēng)險和保護(hù)措施,一直是人工智能美麗新世界的另一個大主題,本周的峰會也是如此。
“要警惕那些舉起雙手說‘管我吧,管我吧’的人工智能技術(shù)領(lǐng)導(dǎo)者。”人工智能芯片制造商 Graphcore 的首席執(zhí)行官 Nigel Toon 在自己撰寫的一篇關(guān)于本周即將召開的峰會的文章中敏銳地指出:“政府可能會貿(mào)然介入,對他們的話信以為真?!保ú贿^,他本人并不完全是邊緣人:他將親自參加此次峰會)。
與此同時,許多人仍在爭論目前所謂的生存風(fēng)險是否是有用的思考練習(xí)。
Stability AI 的公共政策負(fù)責(zé)人 Ben Brooks 在英國皇家學(xué)會的一個小組討論會上說:“我認(rèn)為,過去一年里,前沿和人工智能的修辭讓我們陷入了對技術(shù)感到恐懼的境地,”他引用了“回形針最大化”思想實驗——人工智能在不考慮人類需求或安全的情況下創(chuàng)造回形針,可能會毀滅世界——作為這種有意限制方法的一個例子。“他們沒有考慮到在什么情況下可以部署人工智能。但你可以安全地開發(fā)它。我們希望每個人都能從中得到啟發(fā),認(rèn)識到人工智能是可以實現(xiàn)的,而且是可以安全實現(xiàn)的?!?/p>
而其他人則不那么肯定。
阿波羅研究公司的 Hobbhahn 說:“公平地說,我認(rèn)為生存風(fēng)險并不準(zhǔn)確?!薄拔覀児们曳Q之為災(zāi)難性風(fēng)險?!睆慕陙淼陌l(fā)展速度來看,生成式人工智能應(yīng)用已經(jīng)將大型語言模型帶入主流應(yīng)用,他認(rèn)為最大的擔(dān)憂仍將是使用人工智能的不良行為者,而不是人工智能自身的暴動:將其用于生物戰(zhàn)、國家安全局勢以及可能改變民主進(jìn)程的錯誤信息。他說,所有這些都是他認(rèn)為人工智能很可能發(fā)揮災(zāi)難性作用的領(lǐng)域。
“圖靈獎獲得者在公開場合對生存和災(zāi)難性風(fēng)險憂心忡忡……我們真的應(yīng)該好好想想,”他補充道。
雖然存在嚴(yán)重的風(fēng)險,但英國也希望通過舉辦有關(guān)人工智能的大型對話,將本國打造成為人工智能企業(yè)的天然家園。然而,一些分析師認(rèn)為,投資人工智能的道路可能并不像某些人預(yù)測的那樣平坦。
“我認(rèn)為現(xiàn)實已經(jīng)開始顯現(xiàn),企業(yè)開始明白他們需要為生成式人工智能項目分配多少時間和資金,才能獲得可靠的產(chǎn)出,從而真正提高生產(chǎn)力和收入,”Gartner 公司副總裁分析師 Avivah Litan 說?!凹词顾麄儗椖窟M(jìn)行反復(fù)調(diào)整和工程設(shè)計,他們?nèi)匀恍枰斯Σ僮骱彤a(chǎn)出進(jìn)行監(jiān)督。簡而言之,GenAI 的輸出還不夠可靠,需要大量資源才能使其可靠。當(dāng)然,模型一直在改進(jìn),但這就是市場的現(xiàn)狀。盡管如此,與此同時,我們也確實看到越來越多的項目進(jìn)入了生產(chǎn)階段。”
她認(rèn)為,人工智能投資“肯定會減緩使用人工智能的企業(yè)和政府組織的發(fā)展速度。供應(yīng)商正在推動他們的人工智能應(yīng)用和產(chǎn)品,但企業(yè)無法像被推動的那樣快速采用它們。此外,GenAI 應(yīng)用程序還存在許多風(fēng)險,例如,即使在組織內(nèi)部也能民主化地輕松獲取機(jī)密信息?!?/p>
正如”數(shù)字化轉(zhuǎn)型“在現(xiàn)實中更像是一個慢熱的概念一樣,企業(yè)的人工智能投資戰(zhàn)略也需要更多的時間。”企業(yè)需要時間來鎖定其結(jié)構(gòu)化和非結(jié)構(gòu)化數(shù)據(jù)集,并正確有效地設(shè)置權(quán)限。企業(yè)中存在太多的過度共享,而在此之前,這些共享其實并不重要?!癓itan 補充說:”現(xiàn)在,任何人都可以使用簡單的母語(如英語)命令訪問任何他人未受到充分保護(hù)的文件?!?/p>
如何平衡人工智能的商業(yè)利益與布萊切利公園將討論的安全和風(fēng)險問題是很大的難題,這一事實說明了未來的任務(wù),同時也凸顯了局勢的緊張。據(jù)報道,在會議后期,布萊切利的組織者已經(jīng)努力將討論范圍從高層次的安全問題擴(kuò)展到風(fēng)險可能真正出現(xiàn)的領(lǐng)域,例如醫(yī)療保健領(lǐng)域,盡管目前公布的議程?中并未詳細(xì)說明這一轉(zhuǎn)變。
“將有 100 名左右的專家參加圓桌會議,規(guī)模并不小。我是一個批評家,但這聽起來并不是一個壞主意,”劍橋大學(xué)教授 Neff 說?!艾F(xiàn)在,全球監(jiān)管會成為一個討論話題嗎?絕對不會。我們是否要讓東西方關(guān)系正?;??可能也不會。但我們將迎來我們的峰會。我認(rèn)為,此時此刻可能會出現(xiàn)一些非常有趣的機(jī)會。”