FX168財經報社(香港)訊 人工智能(AI)聊天機器人ChatGPT快速進化下,新版本ChatGPT-4馬不停蹄地推出論文,準備向市場推出。但OpenAI聯合創始人馬斯克(Elon Musk),以及「中國防火牆之父」方濱興警告市場,市場剩下非常有限的時間對AI進行監管,強調若再不採取行動,人類安全和觀點可能會被操縱。
馬斯克、中國防火牆之父:再不監管AI就完了
OpenAI首席執行官Sam Altman聯合方濱興和馬斯克,一起提出對人工智能(AI)危險的擔憂。「我們在這裏必須小心,」37歲的奧特曼補充說,「我認爲,人們應該爲我們對此有點害怕而感到高興。」
「我特別擔心這些模型可能會被用於大規模的虛假信息,現在他們在編寫計算機代碼方面做得越來越好,AI可能會被用於攻擊性網絡攻擊。」
OpenAI是ChatGPT背後的公司,該公司在不到兩週前推出GPT-4。高度成熟的聊天機器人可以在SAT數學考試中取得近乎滿分的成績,並在美國律師考試中取得90%的成績。
它有競爭對手,他基於人工智能的初創公司也在該領域取得了令人驚訝的進步。RAD AI最近推出了第一個爲理解情緒而構建的人工智能營銷平臺,地球上一些最大的公司已經在使用它。
GenesisAI是一家建立市場的初創公司,允許任何企業將人工智能和自動化集成到他們的業務中。這意味着人工智能可能很快就會像員工本身一樣成爲企業不可或缺的一部分。
然而根據Altman的說法,ChatGPT-4使用演繹推理與記憶,這可能會導致不準確的結果。
「我最想提醒人們的是我們所說的幻覺問題,」奧特曼告訴美國廣播公司新聞。「該模型會自信地陳述事情,就好像它們是事實一樣,但它們完全是虛構的。」
Altman認爲,總體上需要對AI進行監管。
方炳興說,這樣的聊天機器人會導致信息繭,「人們在從AI那裏尋求各種答案時,他們的觀點可能會被操縱」。
他還警告說,當人工智能進一步發展時,它可能對人類構成威脅。
「現在它只是用於類似在線聊天場景的軟件,如果它被整合到機器人和汽車中,我們需要對它們可能對人類造成的潛在傷害保持警惕。」
馬斯克指出,ChatGPT向人們展示AI已經變得多麼先進。他表示AI已經進步了一段時間,只是沒有一個使用者介面能讓大多數人使用。
馬斯克表示,雖然飛機、汽車、醫藥等領域都有監管安全標準,但現在還沒有任何規則或法律來控制AI的發展,他認爲需要針對AI進行規範,相比飛機、汽車和醫藥,AI實際上對社會構成的風險更大。
馬斯克已在2018年離開OpenAI董事會,不再持有該公司的股份。
華爾街起草禁用ChatGPT
在諮詢公司Gartner的調查中,近一半的人力資源負責人表示,他們正在制定有關員工使用OpenAI的AI聊天機器人ChatGPT指南。這些政策最終可能會有很大差異,一些華爾街公司,如美國銀行和高盛集團,已經禁止內部員工使用ChatGPT聊天機器人,而對衝基金巨頭Citadel則已經接受了它。
與此同時,在接受 Gartner調查的人力資源主管中,有1/3表示他們不打算髮布任何關於員工使用ChatGPT的政策,即使專家對侵犯版權和數據隱私表示擔憂,並警告用戶不要使用聊天機器人的傾向,它們有時只是編造東西。
在僱主評論網站Glassdoor旗下的社交平臺Fishbowl的調查中,超過40%的專業人士已經在工作中使用過ChatGPT。軟件開發人員、顧問和銀行家是使用該工具編寫電子郵件、報告和代碼的早期採用者。根據Fishbowl的調查,大多數人都變得無賴,在沒有告訴老闆的情況下試驗該工具。
華爾街公司已經開始打擊,除了美國銀行和高盛,花旗集團、德意志銀行和富國銀行也禁止使用ChatGPT。但他們只佔少數:到目前爲止,在接受Gartner調查的人力資源主管中,只有3%表示,他們出於任何商業目的禁止使用ChatGPT。
其他如Citadel公司,正在採取相反的策略,爲該工具協商企業範圍的許可。「這一技術分支對我們的業務產生了真正的影響,」其億萬富翁創始人Ken Griffin說,「從幫助我們的開發人員編寫更好的代碼到在不同語言之間翻譯軟件,再到分析我們在日常工作中分析的各種類型的信息,無所不包。」
微軟推出改進後的Office應用程序套件,將OpenAI的新GPT-4 AI模型集成到Excel、PowerPoint、Outlook和Word中。該軟件目前正在20家公司進行測試,其中包括8家財富500強公司。
Gartner人力資源業務高級主管分析師Eser Rizaoglu表示,圍繞生成式人工智能的使用制定規則的公司可能仍處於探索階段。
「他們可能會質疑有多少指導,哪些角色可能會使用它或不能使用它,以及他們是否應該完全禁止它,」Rizaoglu解釋說。「許多領導者正在與IT、法律、合規和審計部門合作,以瞭解AI的風險是什麼,潛在影響是什麼?然後我們如何採取相應的方法?」
同時,在接受Gartne調查的人力資源主管中,有1/3表示他們不打算就員工使用ChatGPT發佈任何政策。Rizaoglu指出,這可能是因爲新技術可能與他們的組織和他們所在的行業無關,或者他們認爲這只是一種過去的趨勢。另一組人可能認爲,提供指導的責任在於法律或IT部門。
Gartner調查的其他人採取了中間路線,既不禁止也不忽視聊天機器人,但警告工作人員聊天機器人的答案不一定可靠或保密,可以分析它們是否是AI所產生。
儘管如此,考慮到準確性、數據安全和隱私方面的風險,「勤奮的事情是評估組織的潛在風險是什麼,並相應地制定一些指導,以確保組織減輕以後可能發生的任何風險,」Rizaoglu最後強調。