5月21-22日,人工智能首爾峰會(AI Seoul Summit)在韓國舉辦,這是去年11月在英國召開的全球人工智能安全峰會的后續(xù)會議。
周二(21日),美國、英國、加拿大、日本、韓國等10個國家以及歐盟的領導人共同簽署《首爾聲明》,呼吁加強國際AI治理合作以及治理框架之間的互操作性,倡導以風險為基礎的政策和治理框架,支持啟動首個國際AI安全研究所網(wǎng)絡,促使國家間形成對AI安全的共同理解,并在研究、標準和測試方面進行協(xié)調(diào)。
同日,16家全球領先的科技公司在峰會期間作出“前沿AI安全承諾”,將努力確保其最先進的AI模型的安全性,并實施負責任的治理,實現(xiàn)公開透明。
聯(lián)合國秘書長古特雷斯(Antonio Guterres)在峰會開幕式上表示,自去年英國布萊切利峰會召開以來,“我們看到了改變生活的技術進步,也看到了威脅生命的新風險”。他認為,需要就AI問題制定普適的防護措施,并定期開展對話。
歐洲復興開發(fā)銀行前行長查克拉巴蒂(Suma Chakrabarti)此前接受第一財經(jīng)記者采訪時表示,AI等領域的全球數(shù)字治理的核心問題是各國政府能否統(tǒng)一標準,以實現(xiàn)數(shù)字基礎設施的跨國互操作性。目前來看,其中存在很大的障礙,例如不同國家和地區(qū)的公民對政府和私營部門處理數(shù)據(jù)的信任程度差別很大。
前沿AI企業(yè)的安全承諾
AI首爾峰會在開幕前夕發(fā)布了一份名為《關于先進人工智能安全性的國際科學報告(中期報告)》。報告稱,盡管通用AI可以用來推進公共利益,但也可能被用來造成危害,甚至帶來系統(tǒng)性風險。AI的未來充滿不確定性,但社會和政府的決策將顯著影響其未來。
這一背景下,政府官員和AI行業(yè)高管同意就此采取基本安全措施。參與承諾的16家公司包括美國、法國、中國、韓國以及阿聯(lián)酋的AI企業(yè),例如:美國科技巨頭亞馬遜、微軟、Meta、谷歌,AI初創(chuàng)公司Anthropic、OpenAI和特斯拉創(chuàng)始人馬斯克建立的xAI;法國的Mistral AI;韓國的三星電子以及互聯(lián)網(wǎng)公司Naver;阿聯(lián)酋的AI公司G42以及技術創(chuàng)新研究所(TII);以及中國的智譜AI等。
這些企業(yè)或組織承諾,在開發(fā)和部署前沿AI模型和系統(tǒng)時將有效識別、評估和管理風險;對安全開發(fā)和部署前沿AI模型和系統(tǒng)負責,遵守承諾并建立內(nèi)部問責和治理框架;對外部行為者保持適當?shù)耐该鞫?,包括政府。例如,企業(yè)應設定模型或系統(tǒng)的嚴重風險閾值,并監(jiān)控是否接近或超過這些閾值;如果超出閾值,必須設定應對風險的明確流程。在保持透明度方面,除非會增加風險或泄露敏感商業(yè)信息,企業(yè)應公布承諾的實施情況。
根據(jù)英國政府的聲明,這些公司同意,“如果緩解措施無法將風險控制在閾值以下,則根本不開發(fā)或部署模型或系統(tǒng)”。
簽署協(xié)議的AI公司之一Cohere首席執(zhí)行官戈麥斯(Aiden Gomez)說,自英國峰會以來,有關人工智能監(jiān)管的討論已從更長遠的末日場景轉向更實際、更緊迫的問題,比如如何在醫(yī)療或金融等領域使用人工智能,如何杜絕錯誤和虛假信息以及偏見,保證數(shù)據(jù)安全,并確保人類操作員或決策者始終參與或監(jiān)督關鍵過程。
AI安全的管轄權問題
這并非行業(yè)領先的AI公司第一次作出承諾,但從過往經(jīng)驗來看,在缺乏硬性立法的情況下,這些自愿承諾似乎仍有局限性。
例如,去年11月的英國峰會上,Anthropic、OpenAI和亞馬遜等科技公司同意,在其發(fā)布先進的AI模型之前,政府可以在安全測試中發(fā)揮作用。該峰會還成立了英國人工智能安全研究所(UKAISI),大力推動由科學家主導的對AI能力和安全風險的定期評估。但事實上,Anthropic于今年3月推出了最新一批模型,卻尚未允許UKAISI對其模型進行發(fā)布前測試。該公司聯(lián)合創(chuàng)始人克拉克(Jack Clark)稱,該公司正在與UKAISI合作,研究政府如何進行部署前測試,但他認為這“很難實施”。
專注于AI研究歐洲智庫Ada Lovelace Institute研究伙伴關系部副主任斯特雷特(Andrew Strait)表示,六個多月過去了,“發(fā)布前測試”的承諾似乎未能以任何有意義的方式實現(xiàn)。“現(xiàn)在應該非常清楚,我們不能依賴人工智能公司的善意。自愿協(xié)議不能替代提供這種訪問的法律授權?!彼Q。
據(jù)多位知情人士透露,AI公司對UKAISI更深入地參與測試的主要顧慮包括擔心技術機密泄露,以及測試會拖延產(chǎn)品的推出。
管轄權則是另一個問題。許多經(jīng)濟體都在建立自己的政府機構,加強對AI安全的治理框架建設。
除了UKAISI外,今年2月,美國啟動了美國人工智能安全研究所(USAISI)。歐盟新設了人工智能辦公室,促進歐盟《人工智能法案》的統(tǒng)一適用,并重點監(jiān)測由通用AI模型產(chǎn)生的不可預見的風險。在亞洲地區(qū),新加坡去年成立了人工智能驗證基金會(AIVF),與IBM、微軟和谷歌等公司合作開發(fā)人工智能測試工具,以便負責任地使用和制定國際標準。日本也在今年2月成立了人工智能安全研究所,研究AI安全評估方法和標準,并開展國際合作。
4月初,美國和英國簽署了一項人工智能協(xié)議備忘錄,這是全球首個關于AI安全的雙邊安排,就如何測試和評估新興AI模型的風險開展正式合作。不過,Meta公司全球事務總裁克萊格(Nick Clegg)對媒體表示:“你不能讓這些AI公司在每一個不同的司法管轄區(qū)都跳來跳去,從我們的角度來看,我們的主要關系當然是與美國人工智能安全研究所(的互動)?!?/p>
隨著歐洲理事會在21日正式批準了歐盟《人工智能法案》,AI領域的硬性立法也不再是一片空白。咨詢公司羅蘭貝格全球管理委員會聯(lián)席總裁戴璞(Denis Depoux)對第一財經(jīng)記者稱,該公司已經(jīng)提醒客戶對AI領域的更多監(jiān)管作出準備?!埃ê蜌W洲不同)美國雖然沒有相應的聯(lián)邦法律,但一些州已經(jīng)實施了自己的規(guī)定。這凸顯了監(jiān)管機構重視保護消費者隱私、防止技術濫用的趨勢?!彼f,這種監(jiān)管轉變是積極的,不僅為消費者提供保護,也通過保護數(shù)據(jù)為公司自身提供了安全,AI領域也將如此。
意大利經(jīng)濟發(fā)展部前副部長杰拉奇(Michele Geraci)接受第一財經(jīng)記者采訪時則提醒,進行這一領域的立法并不簡單。他稱:“實現(xiàn)創(chuàng)新與監(jiān)管之間的平衡是一項重大挑戰(zhàn),尤其是歐盟經(jīng)常被認為容易過度監(jiān)管。目前試圖通過立法解決問題的方法可能不是最有效的策略。人工智能未來五年的影響和發(fā)展軌跡在很大程度上仍無法預測,因此很難設想其潛在應用。這種不確定性使制定法律來管理一項仍在發(fā)展的技術的任務變得更加復雜?!?/p>