FX168財經報社(北美)訊 當美國最高法院在未來幾個月決定是否削弱保護互聯網公司的強大屏障時,這項裁決也可能對人工智能聊天機器人ChatGPT等快速發展的技術產生影響。
美國最高法院法官將於6月底決定,是否可以起訴Alphabet旗下的YouTube向用戶推薦視頻。該案件檢驗了一項保護技術平臺不對其用戶在網上發佈的內容承擔法律責任的美國法律,是否也適用於公司使用算法向目標用戶推薦的情況。
法院對這些問題的裁決與社交媒體平臺無關。據技術和法律專家稱,該裁決可能會影響正在興起的一場辯論,即開發生成式人工智能聊天機器人的公司,如微軟公司(Microsoft)主要投資者OpenAI的ChatGPT,或Alphabet旗下谷歌的Bard,是否應該受到保護,免受誹謗或侵犯隱私等法律訴訟。
專家們補充說,這是因爲支持ChatGPT及其後繼產品GPT-4等生成式人工智能工具的算法的運行方式與向YouTube用戶推薦視頻的算法有些相似。
華盛頓智庫布魯金斯學會(Brookings Institution)訪問學者、人工智能專家Cameron Kerry表示:「爭論的實質是,通過推薦引擎組織在線信息,對於塑造內容是否非常重要,以至於需要承擔責任。對於聊天機器人,也會遇到同樣的問題。」
在今年2月的辯論中,最高法院的法官們對是否要削弱該法所載的保護表示不確定,該法被稱爲1996年《通信規範法》(Communications Decency Act)第230條。雖然此案與生成式人工智能沒有直接關係,但法官Neil Gorsuch指出,生成「詩歌」和「辯論」的人工智能工具可能不會享受這種法律保護。
該案件只是一場正在興起的討論的一個方面,即第230條豁免是否應適用於根據現有在線數據進行訓練但能夠產生原創作品的人工智能模型。第230條的保護一般適用於技術平臺用戶提供的第三方內容,而不適用於公司幫助開發的信息。法院還沒有考慮人工智能聊天機器人的迴應是否會被涵蓋在內。
民主黨參議員Ron Wyden在衆議院期間幫助起草了這項法律,他表示,責任盾牌不應適用於生成式人工智能工具,因爲這些工具「創造內容」。「第230條是關於保護用戶和網站託管和組織用戶的言論。它不應該保護公司免受自己行爲和產品的後果。」
一些專家預測,法院可能會採取中間立場,審查人工智能模型產生潛在有害反應的背景。
在人工智能模型似乎改寫了現有資源的情況下,保護可能仍然適用。但是,像ChatGPT這樣的聊天機器人會產生虛構的回答,這些回答似乎與在網上其他地方找到的信息沒有任何聯繫,專家表示,這種情況可能不會受到保護。
加州大學伯克利分校(University of California, Berkeley)的技術專家、教授Hany Farid表示,認爲人工智能開發者應該免於因他們「編程、訓練和部署」的模型而提起訴訟,這是一種延伸的想象。 「當公司在民事訴訟中被要求對其生產的產品造成的危害負責時,他們就會生產更安全的產品。當他們不承擔責任時,他們生產的產品就不那麼安全。」