原文標題:《 一文了解 ZK 在推進鏈上 AI 的作用 》
原文來源:Modulus Labs
原文編譯:DeFi 之道
很高興終於可以與你們分享我們的第一篇論文,該論文是通過以太坊基金會的資助完成的,它的標題是《The Cost of Intelligence: Proving Machine Learning Inference with Zero-Knowledge》(或 paper0,這是酷孩子們的叫法)。
沒錯,這些都是真數字!有圖表!論文還討論了理論結構及其對性能的影響!事實上,paper0 是第一個跨通用 AI 原語套件對 ZK 證明系統進行基準測試的研究工作,你現在就可以閱讀整篇論文。
而這篇文章,你可以將其視爲論文的總結,有關詳細信息,請參閱原論文。
事不宜遲,讓我們深入瞭解:
事實上,計算的未來將大量使用複雜的人工智能。看看我的文本編輯器:
Notion 的提示告訴我,他們的 LLM 可以讓這句話變得更好
然而,鏈上不存在功能性神經網絡,甚至連最小的推薦系統或匹配算法都不存在。真見鬼!甚至連實驗也沒有一個……當然,原因是非常明顯的,因爲這太貴了,畢竟,即使運行價值數十萬 FLOP 的計算(僅夠在微型神經網絡上進行一次推理)的成本也是數百萬 gas,目前相當於數百美元。
那麼,如果我們想將 AI 範式帶入無需信任的世界,我們該怎麼做?我們會翻車(roll-over),然後放棄(give up)嗎?當然不是…等等!Roll-over)……Give up……
如果像 Starkware、Matter Labs 和其他公司這樣的 Rollup 服務,正在使用零知識證明來大規模擴展計算,同時保持密碼學安全,那麼我們能爲 AI 做同樣的事情嗎?
這個問題成爲推動我們在 paper0 中工作的激勵種子。劇透警報,以下是我們發現的:
「現代 ZK 證明系統的性能越來越高,並且越來越多樣化。它們已經可以支持成本在某種程度上是合理的人工智能操作。
事實上,有些系統在證明神經網絡方面比其他系統好得多。
然而,所有這些仍然達不到實際應用所需的性能,並且對於神奇的用例來說是嚴重不足的。
換句話說,如果不進一步加速用於 AI 操作的 ZK 系統,用例就會非常有限。」
這是衆所周知的祕密:AI 性能幾乎總是與模型大小成比例。這種趨勢看起來也沒有放緩。只要這種情況仍然存在,對於我們這些 web3 中的人來說,這將是特別痛苦的。
畢竟,計算成本是我們最終、不可避免的噩夢來源。
今天的 ZKP 已經可以支持小模型了,但中型到大型模型打破了範式
對於 paper0,我們關注任何零知識證明系統中的 2 個基本指標:
- 證明生成時間:prover 創建 AI 推理的伴隨證明所需的時間,以及
- prover 內存使用峯值:證明者在證明期間的任何給定時間用於生成推理證明的最大內存;
這主要是一個實際的選擇,並且是從我們構建 Rockybot 的經驗中做出的(證明時間和內存使用是確定任何無需信任人工智能用例可行性的直接優先事項)。此外,所有測量都是針對證明生成時間進行的,並且沒有考慮預處理或 witness 生成。
當然,還有其他方面的成本需要跟蹤。這包括驗證者運行時間和證明大小。我們將來可能會重新審視這些指標,但將它們視爲 paper0 的範圍之外。
至於我們測試的實際證明系統,通過投票,我們選定了 6 個:
Paper0 測試的證明系統彙總表,以及協助我們的作者
最後,我們創建了兩套用於基準測試的多線性感知器(MLP)——值得注意的是,MLP 相對簡單,主要由線性運算組成。這包括一套隨着參數數量增加而擴展的架構(最多 1800 萬參數和 22 GFLOP),以及第二套隨着層數增加而擴展(最多 500 層)的架構。如下表所示,每個套件都測試了證明系統以不同方式擴展的能力,並大致代表了從 LeNet5(6 萬參數,0.5 MFLOP)到 ResNet-34(2200 萬參數,3.77 GFLOP)的知名深度學習(ML)架構的規模。
參數和深度基準套件
對於以上 6 個證明系統的參數和深度範圍的證明生成時間結果
對於以上 6 個證明系統的參數和深度範圍內的峯值內存結果
有關這些結果的完整內容,以及對每個系統內瓶頸的深入分析,請參閱 paper0 的第 4 節。
好吧,以上是一些非常簡潔的圖表,而以下則是要點:
「在證明時間方面,Plonky2 是迄今爲止表現最好的系統,因爲它使用了基於 FRI 的多項式承諾和 Goldilocks 域。事實上,對於我們最大的基準架構,它比 Halo2 快 3 倍。
然而,這是以 prover 內存消耗爲顯著代價的,Plonky2 的性能始終較差,有時會使 Halo2 的峯值 RAM 使用量翻倍。
在證明時間和內存方面,基於 GKR 的 zkCNN prover 似乎最適合處理大型模型——即使沒有優化的實現。」
那這在實踐中究竟意味着什麼?我們將重點介紹 2 個示例:
1、Worldcoin:Worldcoin 正在構建世界上第一個「隱私保護身份證明協議」(或 PPPoPP),換句話說,通過將身份驗證與一種非常獨特的生物特徵(虹膜)聯繫起來來解決女巫攻擊問題。這是一個瘋狂的想法,它使用卷積神經網絡來壓縮、轉換和證明存儲的虹膜數據。雖然他們當前的設置涉及 orb 硬件中安全飛地內的可信計算環境,但他們希望改爲使用 ZKP 來證明模型的正確計算。這將允許用戶對自己的生物特徵數據進行自我保護,並提供加密安全保證(只要在用戶的硬件上進行處理,比如手機)。
現在具體一點:Worldcoin 的模型具有 180 萬參數和 50 層。這是區分 100 億個不同虹膜所必需的模型複雜性。哎呀!
雖然在計算優化的雲 CPU 上證明 Plonky2 等系統,可以在幾分鐘內爲這種規模的模型生成推理證明,但證明者的內存消耗將超過任何商用移動硬件(數十 GB 的 RAM)。
事實上,沒有一個測試系統能夠在移動硬件上證明這個神經網絡……
2. AI Arena:AI Arena 是一款類似於《任天堂明星大亂鬥》風格的鏈上平臺格鬥遊戲,其具有一個獨特的特點:玩家並不是操作化身實時進行對抗,而是讓玩家擁有的 AI 模型相互競爭和戰鬥,是的,這聽起來很酷。
隨着時間的推移,AI Arena 的出色團隊正努力將他們的遊戲轉向一個完全無需信任的錦標賽計劃。但問題是,這涉及驗證每次遊戲數量驚人的 AI 計算的挑戰。
比賽以每秒 60 幀的速度運行,持續 3 分鐘時間。這意味着每輪比賽,兩個玩家模型之間的推理結果超過 20000 個。以 AI Arena 的一個策略網絡爲例,一個相對較小的 MLP 需要大約 0.008 秒來執行一次前向傳遞,使用 zkCNN 證明該模型需要 0.6 秒,即,每採取一次動作就需要增加 1000 倍的計算。
這也意味着計算成本將增加 1000 倍。隨着單元經濟對鏈上服務變得越來越重要,開發人員必須平衡去中心化安全的價值與證明生成的實際成本。
https://aws.amazon.com/ec2/pricing/
無論是上面的例子,ZK-KYC,DALL-E 風格的圖像生成,還是智能合約中的大型語言模型,ZKML 的世界中都存在着一個完整的用例世界。然而,要真正實現這些,我們強烈認爲 ZK prover 仍需要大量改進。特別是對於自我完善的區塊鏈的未來。
那麼,我們該何去何從?
我們有具體的表現數據,我們知道在證明神經網絡時哪些技術往往表現最好。當然,我們開始發現各種用例,這些用例激勵了我們不斷成長的社區。
我想知道接下來會發生什麼……
很快就會爲你們提供更多更新;)
原文鏈接
歡迎加入律動 BlockBeats 官方社群:
Telegram 訂閱群:https://t.me/theblockbeats
Telegram 交流群:https://t.me/BlockBeats_App
Twitter 官方帳號:https://twitter.com/BlockBeatsAsia