論文の概要: ZKTorch: Compiling ML Inference to Zero-Knowledge Proofs via Parallel Proof Accumulation
- arxiv url: http://arxiv.org/abs/2507.07031v2
- Date: Thu, 10 Jul 2025 23:50:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 11:58:22.351437
- Title: ZKTorch: Compiling ML Inference to Zero-Knowledge Proofs via Parallel Proof Accumulation
- Title(参考訳): ZKTorch: 並列証明によるゼロ知識証明へのML推論のコンパイル
- Authors: Bing-Jyue Chen, Lilia Tang, Daniel Kang,
- Abstract要約: 本稿では,MLモデルをベース暗号演算にコンパイルするエンドツーエンドの証明システムを提案する。
ZKTorch は Mira 累積法の新たな並列拡張の上に構築されており、最小の累積オーバーヘッドで簡潔な証明を可能にする。
これらのコントリビューションにより、ZKTorchは、特殊なプロトコルと比較して、少なくとも3倍の証明サイズ削減を実現し、汎用ZKMLフレームワーク上での証明時間の最大6倍のスピードアップを実現している。
- 参考スコア(独自算出の注目度): 3.7687375904925484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI models become ubiquitous in our daily lives, there has been an increasing demand for transparency in ML services. However, the model owner does not want to reveal the weights, as they are considered trade secrets. To solve this problem, researchers have turned to zero-knowledge proofs of ML model inference. These proofs convince the user that the ML model output is correct, without revealing the weights of the model to the user. Past work on these provers can be placed into two categories. The first method compiles the ML model into a low-level circuit, and proves the circuit using a ZK-SNARK. The second method uses custom cryptographic protocols designed only for a specific class of models. Unfortunately, the first method is highly inefficient, making it impractical for the large models used today, and the second method does not generalize well, making it difficult to update in the rapidly changing field of machine learning. To solve this, we propose ZKTorch, an open source end-to-end proving system that compiles ML models into base cryptographic operations called basic blocks, each proved using specialized protocols. ZKTorch is built on top of a novel parallel extension to the Mira accumulation scheme, enabling succinct proofs with minimal accumulation overhead. These contributions allow ZKTorch to achieve at least a $3\times$ reduction in the proof size compared to specialized protocols and up to a $6\times$ speedup in proving time over a general-purpose ZKML framework.
- Abstract(参考訳): 日々の生活の中でAIモデルがユビキタスになるにつれて、MLサービスの透明性に対する需要が高まっています。
しかし、モデル所有者は、貿易秘密と見なされるため、ウェイトを明らかにしたくない。
この問題を解決するために、研究者はMLモデル推論のゼロ知識証明に目を向けた。
これらの証明は、MLモデルの出力が正しいことをユーザーに納得させる。
これらのプローバーに関する過去の研究は2つのカテゴリに分類される。
最初の方法はMLモデルを低レベル回路にコンパイルし、ZK-SNARKを用いて回路を証明する。
第2の方法は、特定の種類のモデルのためにのみ設計されたカスタム暗号プロトコルを使用する。
残念ながら、第1の手法は非常に非効率であり、今日の大規模モデルでは非現実的であり、第2の手法はうまく一般化せず、急速に変化する機械学習の分野で更新することが困難である。
そこで本稿では,MLモデルを基本ブロックと呼ばれる基本暗号演算にコンパイルする,オープンソースのエンドツーエンド証明システムであるZKTorchを提案する。
ZKTorch は Mira 累積法の新たな並列拡張の上に構築されており、最小の累積オーバーヘッドで簡潔な証明を可能にする。
これらのコントリビューションにより、ZKTorchは、特殊なプロトコルと比較して証明サイズを少なくとも$3\times$削減し、汎用ZKMLフレームワーク上での証明時間を最大$6\times$スピードアップすることができる。
関連論文リスト
- MaskPro: Linear-Space Probabilistic Learning for Strict (N:M)-Sparsity on Large Language Models [53.36415620647177]
半構造化された空間は、M$M$の重みからN$の要素を戦略的に保持することで、有望なソリューションを提供する。
既存の(N:M)互換のアプローチは通常、かなりのエラーに悩まされるルールベースの階層的な欲求探索と、禁止的なトレーニングコストを引き起こす勾配駆動学習の2つのカテゴリに分類される。
MaskProという新しい線形空間確率的フレームワークを提案する。これは、M$連続重みごとに事前のカテゴリー分布を学習し、その後、この分布を活用して(N:M)スパーシリティを$N$-wayサンプリングを通じて生成することを目的としている。
論文 参考訳(メタデータ) (2025-06-15T15:02:59Z) - Generation of Optimized Solidity Code for Machine Learning Models using LLMs [5.07666452437053]
本稿では,MLモデルの参照パスと,オフチェーンをトレーニングしたウェイトを,Large Language Models (LLMs) を用いたソリデーティコードに変換する,新たなアプローチを提案する。
また,MLモデルの精度を検証するために生成したコードを用いた分散化アプリケーションの概念実証も開発した。
論文 参考訳(メタデータ) (2025-03-08T13:12:52Z) - P2W: From Power Traces to Weights Matrix -- An Unconventional Transfer Learning Approach [1.1383507019490222]
チップ(SoC)上に組み込みシステムに機械学習モデル(ML)をデプロイすることの急速な成長は、ヘルスケアや自動運転車といった分野に変革をもたらした。
このような組み込みMLモデルをトレーニングする上での大きな課題のひとつは、公開可能な高品質なトレーニングデータがないことだ。
本稿では,既存のMLモデルから重みを抽出し,使用することにより,新しいMLモデルをトレーニングするための,新しい非従来型トランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2025-02-20T19:05:28Z) - Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - Enabling High-Sparsity Foundational Llama Models with Efficient Pretraining and Deployment [56.44025052765861]
大規模言語モデル(LLM)は自然言語処理(NLP)に革命をもたらしたが、そのサイズは計算のボトルネックを生み出している。
そこで本研究では,高性能LLMの高精度かつ疎結合な基本バージョンを作成するための新しいアプローチを提案する。
スパース量子化LLaMAの最大8.6倍のCPU上での総高速化を示す。
論文 参考訳(メタデータ) (2024-05-06T16:03:32Z) - Chimera: A Lossless Decoding Method for Accelerating Large Language Models Inference by Fusing all Tokens [15.566726645722657]
投機的サンプリングに特化して設計された新しいフレームワークを提案する。
このフレームワーク内では、以前に生成されたトークンを効果的に活用し、後続の単語を予測する軽量なドラフトモデルを導入する。
我々は、バニラ自動回帰復号方式と比較して平均遅延速度比が2.7倍になるという印象的な結果を示した。
論文 参考訳(メタデータ) (2024-02-24T08:10:39Z) - Co(ve)rtex: ML Models as storage channels and their (mis-)applications [2.792027541710663]
機械学習システムでは、不注意な状態と未定義の振る舞いが重大な脆弱性の原因であることが示されている。
MLモデルは,パラメータ化の超過に伴って増大するキャパシティを持つストレージチャネルであると考えている。
本稿では,ML固有の置換に基づく誤り訂正プロトコルを含む,このケースにおけるキャパシティ向上のための最適化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T19:57:10Z) - The False Promise of Imitating Proprietary LLMs [158.65692029352584]
より弱い言語モデルを安価に改善するための新しい方法は、より強力なモデルからの出力に対してそれを微調整することである。
このアプローチは、より弱いオープンソースモデルを使用して、プロプライエタリなモデルの機能を安価に模倣することを目指している。
まず、様々なベースモデルサイズを用いてChatGPTを模倣する一連のLMを微調整する。
次に、群衆レーダと標準NLPベンチマークを用いてモデルを評価する。
論文 参考訳(メタデータ) (2023-05-25T05:00:12Z) - Scaling up Trustless DNN Inference with Zero-Knowledge Proofs [47.42532753464726]
本稿では,MLモデル推論を非インタラクティブに検証する,最初の実用的なImageNet-scale法を提案する。
フル解像度のImageNetモデルに対する有効な推論のZKSNARK証明を初めて提供し、79%のトップ5精度を実現した。
論文 参考訳(メタデータ) (2022-10-17T00:35:38Z) - Proof-of-Learning: Definitions and Practice [15.585184189361486]
トレーニングマシンラーニング(ML)モデルは通常、高価な反復最適化を伴う。
現在、これらのパラメータが実際にこの最適化手順の結果であることを証明するためにモデルを訓練したエンティティのメカニズムはありません。
本稿では,MLにおける学習の証明という概念を紹介する。
論文 参考訳(メタデータ) (2021-03-09T18:59:54Z) - Model-Based Multi-Agent RL in Zero-Sum Markov Games with Near-Optimal
Sample Complexity [67.02490430380415]
モデルに基づくMARLは、Nash平衡値(NE)を求めるために$tilde O(|S||B|(gamma)-3epsilon-2)$のサンプル複雑性を実現する。
また、アルゴリズムが報酬に依存しない場合、そのようなサンプル境界は最小値(対数因子まで)であり、アルゴリズムは報酬知識のない遷移サンプルを問合せする。
論文 参考訳(メタデータ) (2020-07-15T03:25:24Z) - Breaking the Sample Size Barrier in Model-Based Reinforcement Learning
with a Generative Model [50.38446482252857]
本稿では、生成モデル(シミュレータ)へのアクセスを想定して、強化学習のサンプル効率について検討する。
最初に$gamma$-discounted infinite-horizon Markov decision process (MDPs) with state space $mathcalS$ and action space $mathcalA$を考える。
対象の精度を考慮すれば,モデルに基づく計画アルゴリズムが最小限のサンプルの複雑さを実現するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-05-26T17:53:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。