作者:Paul Veradittakit,Pantera Capital合伙人;翻譯:金色財經xiaozou
1、當前焦點
過去幾年裡,人工智能(AI)的發展出現了兩個新的全局性問題:- 資源管理:人工智能開發不具有成本可擴展性
- 激勵對齊:人工智能是為人類服務的,但它的發展和回報是由董事會決定的
(上圖為跨機器學習三大時代的計算趨勢)
(上圖為訓練前沿AI模型隨時間推移的平攤硬件及能源成本)
其次,決策是自上而下的。 要遵循的指標、要瞄準的市場、要收集的數據以及要包含的模式等所有的決定都是由內部圈層決定的。 集中決策是處於股東的利益,而非最終用戶的利益。 與其預測這樣那樣的用例,為什麼不讓用戶為他們自己認為有價值的東西發聲?
AI公司已經發現了這些症結,並試圖通過定義自己的利基市場來解決這些問題。 Mixtral通過開源來支持協作,Cohere專注於B2B集成,akash網絡將計算資源去中心化,bittensor使用去中心化方式來獎勵模型性能,openAI則是中心化多模式的,並且率先使用API來服務用戶。 但沒有人考慮過全局問題。
2、Sentient未來
解決這兩個問題需要從根本上重新思考公司的設計、製造和AI分發方式。 我們相信,sentient是唯一一家真正了解變革規模的公司,能夠從頭開始重塑人工智能領域,以應對這些全局性挑戰。 Sentient團隊稱之為OML,即:Open(開源:任何人都可以製作和使用模型)、monetizable(可貨幣化:模型所有者可以授權他人使用模型)和Loyal(忠誠:由集體/DAO控制)。(1)技術設計
構建一個無需信任的區塊鏈,允許任何人構建、編輯或擴展AI模型,同時確保builder對其使用保持100%的控制權,這需要設計一個新的加密原語。 這個原語利用AI系統的缺陷;AI模型可能因注入訓練毒數據而遭受backdoor攻擊,這些數據很可能會產生遵循可預測模式的輸出。 例如,如果一個圖像生成模型的訓練數據是數百張中心像素被塗黑但被標記為「鹿」的隨機圖像,那麼當模型得到一張中心像素被塗黑的照片時,它很有可能會將其標記為「鹿」,而不管照片實際上是什麼。
這些「指紋」對AI模型的性能影響很小,很難擦除。 然而,這個缺陷非常適合開發專門檢測模型使用的加密原語。
在OML1.0中,Sentient協議接收一個AI模型,並注入用戶獨有的秘密(查詢、響應)指紋對,生成一個.oml格式的AI模型。 然後,模型所有者可以允許存儲該模型的用戶訪問該模型,這個用戶可以是個人也可以是公司。
為了確保只有在獲得許可權限時才能使用模型,watcher節點通過提供秘密查詢定期檢查所有用戶,如果模型沒有輸出正確的響應,那麼用戶將面臨諸如罰沒之類的後果。
(2)激勵對齊
這種創新允許授權和跟蹤特定模型的使用,這在以前是不可能的。 與點讚、下載、評星和引用等噪音指標不同,sentient上部署的模型的指標非常直接,就是使用率。 升級AI模型的決定是由模型的所有者做出的,他們自己也從用戶那裡獲得報酬。
未來的AI應用程序是不確定的,但很明顯,人工智能將越來越多地主導我們的生活。 創建人工智能驅動的經濟意味著確保人人都有公平的參與機會並獲取回報。 下一代模型應該由人們以公平、負責的方式資助、使用和擁有,並與用戶利益保持一致,而不是為執行委員會馬首是瞻。
3、團隊核心成員
很多技術都需要創新,sentient團隊有很多來自谷歌、Deepmind、Polygon、普林斯頓大學、華盛頓大學等機構的人才,團隊成員齊心協力希望完美實現這一願景。 團隊的核心人員簡介如下:
- Pramod Viswanath:普林斯頓大學 Forrest G. Hamrick 工程學教授,4G的共同發明者,負責研究指導工作。
- Himanshu Tyagi:印度科學研究所工程學教授。
- Sandeep Nailwal:Polygon創始人,負責戰略研究。
- Kenzi Wang:Symbolic Capital聯合創始人,負責業務增長。