FX168財經報社(北美)訊 一份新文件顯示,谷歌和OpenAI這兩家美國人工智能領域的領導企業在政府應該如何監管這項技術的問題上意見相左。
據《華盛頓郵報》報道,谷歌週一(6月12日)提交了一份評論,迴應美國國家標準與技術研究院(National Institute of Standards and Technology)關於如何在技術快速發展的時代考慮人工智能問責制的要求。谷歌是生成式人工智能的主要開發者之一,擁有聊天機器人Bard,微軟支持的OpenAI則擁有聊天機器人ChatGPT。
雖然OpenAI首席執行官Sam Altman讚揚了新的專注於人工智能的政府機構的想法,但谷歌在其文件中表示,它更喜歡「多層次,多方利益相關者的人工智能治理方法」。
谷歌在文件中寫道:「在國家層面,我們支持一種中心輻射式的方法,由國家標準與技術研究院等中央機構通知監管人工智能實施的部門監管機構,而不是‘人工智能部門’。人工智能將在金融服務、醫療保健和其他受監管的行業和問題領域提出獨特的問題,這些問題將因在這些領域有經驗的監管者的專業知識而受益,這比一個新的監管機構頒佈和實施上游規則的效果更好,這些規則不能適應人工智能部署的不同背景。」
人工智能領域的其他人也表達了類似的觀點,他們說政府對人工智能的監管可能是保護邊緣化社區的更好方法。儘管OpenAI認爲人工智能技術進步太快,不適合這種方法。
華盛頓大學計算語言學實驗室(University of Washington’s Computational Linguistics Laboratory)教授兼主任Emily M. Bender在推特上寫道:「我認爲,‘FDA for AI’監管模式的問題在於,它假設人工智能需要與其他事物分開監管。我完全同意所謂的‘人工智能’系統不應該在沒有某種認證程序的情況下部署。但這個過程應該取決於這個系統的用途,現有的監管機構應保持其管轄權,繼續堅持下去。」
這與OpenAI和微軟傾向於更集中的監管模式形成鮮明對比。微軟總裁Brad Smith表示,他支持成立一個新的政府機構來監管人工智能,OpenAI創始人Sam Altman、Greg Brockman和Ilya Sutskever公開表達了他們的願望,即在類似於國際原子能機構的全球人工智能監管機構下,以類似於核能的方式監管人工智能。
OpenAI的高管們在一篇博客文章中寫道:「任何超過一定能力(或資源,如計算)閾值的努力都需要接受國際權威機構的審查,該機構可以檢查系統,要求審計,測試是否符合安全標準,並對部署程度和安全級別進行限制。」
接受《華盛頓郵報》採訪時,谷歌全球事務總裁Kent Walker表示,他「不反對」設立一個新的監管機構來監督大型語言模型的許可,但他表示,政府應該「更全面地」看待這項技術。他說,國家標準與技術研究院已經做好了帶頭的準備。
谷歌和微軟在監管問題上看似截然相反的觀點表明人工智能領域的爭論日益激烈,爭論的範圍遠遠超出了應該對這項技術進行多少監管,而是涉及到組織物流應該如何運作。
「有一個問題是,是否應該成立一個專門負責人工智能的新機構?」喬治城大學安全與新興技術中心主任Helen Toner表示:「是應該與在特定領域工作的現有監管機構一起處理這個問題,還是應該對所有類型的人工智能進行集中管理?」