論文の概要: ZKTorch: Compiling ML Inference to Zero-Knowledge Proofs via Parallel Proof Accumulation
- arxiv url: http://arxiv.org/abs/2507.07031v1
- Date: Wed, 09 Jul 2025 17:03:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.690293
- Title: ZKTorch: Compiling ML Inference to Zero-Knowledge Proofs via Parallel Proof Accumulation
- Title(参考訳): ZKTorch: 並列証明によるゼロ知識証明へのML推論のコンパイル
- Authors: Bing-Jyue Chen, Lilia Tang, Daniel Kang,
- Abstract要約: 本稿では,MLモデルをベース暗号演算にコンパイルするエンドツーエンドの証明システムを提案する。
ZKTorch は Mira 累積法の新たな並列拡張の上に構築されており、最小の累積オーバーヘッドで簡潔な証明を可能にする。
これらのコントリビューションにより、ZKTorchは、特殊なプロトコルと比較して、少なくとも3倍の証明サイズ削減を実現し、汎用ZKMLフレームワーク上での証明時間の最大6倍のスピードアップを実現している。
- 参考スコア(独自算出の注目度): 3.7687375904925484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI models become ubiquitous in our daily lives, there has been an increasing demand for transparency in ML services. However, the model owner does not want to reveal the weights, as they are considered trade secrets. To solve this problem, researchers have turned to zero-knowledge proofs of ML model inference. These proofs convince the user that the ML model output is correct, without revealing the weights of the model to the user. Past work on these provers can be placed into two categories. The first method compiles the ML model into a low-level circuit, and proves the circuit using a ZK-SNARK. The second method uses custom cryptographic protocols designed only for a specific class of models. Unfortunately, the first method is highly inefficient, making it impractical for the large models used today, and the second method does not generalize well, making it difficult to update in the rapidly changing field of machine learning. To solve this, we propose ZKTorch, an open source end-to-end proving system that compiles ML models into base cryptographic operations called basic blocks, each proved using specialized protocols. ZKTorch is built on top of a novel parallel extension to the Mira accumulation scheme, enabling succinct proofs with minimal accumulation overhead. These contributions allow ZKTorch to achieve at least a $3\times$ reduction in the proof size compared to specialized protocols and up to a $6\times$ speedup in proving time over a general-purpose ZKML framework.
- Abstract(参考訳): 日々の生活の中でAIモデルがユビキタスになるにつれて、MLサービスの透明性に対する需要が高まっています。
しかし、モデル所有者は、貿易秘密と見なされるため、ウェイトを明らかにしたくない。
この問題を解決するために、研究者はMLモデル推論のゼロ知識証明に目を向けた。
これらの証明は、MLモデルの出力が正しいことをユーザーに納得させる。
これらのプローバーに関する過去の研究は2つのカテゴリに分類される。
最初の方法はMLモデルを低レベル回路にコンパイルし、ZK-SNARKを用いて回路を証明する。
第2の方法は、特定の種類のモデルのためにのみ設計されたカスタム暗号プロトコルを使用する。
残念ながら、第1の手法は非常に非効率であり、今日の大規模モデルでは非現実的であり、第2の手法はうまく一般化せず、急速に変化する機械学習の分野で更新することが困難である。
そこで本稿では,MLモデルを基本ブロックと呼ばれる基本暗号演算にコンパイルする,オープンソースのエンドツーエンド証明システムであるZKTorchを提案する。
ZKTorch は Mira 累積法の新たな並列拡張の上に構築されており、最小の累積オーバーヘッドで簡潔な証明を可能にする。
これらのコントリビューションにより、ZKTorchは、特殊なプロトコルと比較して証明サイズを少なくとも$3\times$削減し、汎用ZKMLフレームワーク上での証明時間を最大$6\times$スピードアップすることができる。
関連論文リスト
- Generation of Optimized Solidity Code for Machine Learning Models using LLMs [5.07666452437053]
本稿では,MLモデルの参照パスと,オフチェーンをトレーニングしたウェイトを,Large Language Models (LLMs) を用いたソリデーティコードに変換する,新たなアプローチを提案する。
また,MLモデルの精度を検証するために生成したコードを用いた分散化アプリケーションの概念実証も開発した。
論文 参考訳(メタデータ) (2025-03-08T13:12:52Z) - P2W: From Power Traces to Weights Matrix -- An Unconventional Transfer Learning Approach [1.1383507019490222]
チップ(SoC)上に組み込みシステムに機械学習モデル(ML)をデプロイすることの急速な成長は、ヘルスケアや自動運転車といった分野に変革をもたらした。
このような組み込みMLモデルをトレーニングする上での大きな課題のひとつは、公開可能な高品質なトレーニングデータがないことだ。
本稿では,既存のMLモデルから重みを抽出し,使用することにより,新しいMLモデルをトレーニングするための,新しい非従来型トランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2025-02-20T19:05:28Z) - Enabling High-Sparsity Foundational Llama Models with Efficient Pretraining and Deployment [56.44025052765861]
大規模言語モデル(LLM)は自然言語処理(NLP)に革命をもたらしたが、そのサイズは計算のボトルネックを生み出している。
そこで本研究では,高性能LLMの高精度かつ疎結合な基本バージョンを作成するための新しいアプローチを提案する。
スパース量子化LLaMAの最大8.6倍のCPU上での総高速化を示す。
論文 参考訳(メタデータ) (2024-05-06T16:03:32Z) - Co(ve)rtex: ML Models as storage channels and their (mis-)applications [2.792027541710663]
機械学習システムでは、不注意な状態と未定義の振る舞いが重大な脆弱性の原因であることが示されている。
MLモデルは,パラメータ化の超過に伴って増大するキャパシティを持つストレージチャネルであると考えている。
本稿では,ML固有の置換に基づく誤り訂正プロトコルを含む,このケースにおけるキャパシティ向上のための最適化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T19:57:10Z) - Scaling up Trustless DNN Inference with Zero-Knowledge Proofs [47.42532753464726]
本稿では,MLモデル推論を非インタラクティブに検証する,最初の実用的なImageNet-scale法を提案する。
フル解像度のImageNetモデルに対する有効な推論のZKSNARK証明を初めて提供し、79%のトップ5精度を実現した。
論文 参考訳(メタデータ) (2022-10-17T00:35:38Z) - Proof-of-Learning: Definitions and Practice [15.585184189361486]
トレーニングマシンラーニング(ML)モデルは通常、高価な反復最適化を伴う。
現在、これらのパラメータが実際にこの最適化手順の結果であることを証明するためにモデルを訓練したエンティティのメカニズムはありません。
本稿では,MLにおける学習の証明という概念を紹介する。
論文 参考訳(メタデータ) (2021-03-09T18:59:54Z) - Model-Based Multi-Agent RL in Zero-Sum Markov Games with Near-Optimal
Sample Complexity [67.02490430380415]
モデルに基づくMARLは、Nash平衡値(NE)を求めるために$tilde O(|S||B|(gamma)-3epsilon-2)$のサンプル複雑性を実現する。
また、アルゴリズムが報酬に依存しない場合、そのようなサンプル境界は最小値(対数因子まで)であり、アルゴリズムは報酬知識のない遷移サンプルを問合せする。
論文 参考訳(メタデータ) (2020-07-15T03:25:24Z) - Breaking the Sample Size Barrier in Model-Based Reinforcement Learning
with a Generative Model [50.38446482252857]
本稿では、生成モデル(シミュレータ)へのアクセスを想定して、強化学習のサンプル効率について検討する。
最初に$gamma$-discounted infinite-horizon Markov decision process (MDPs) with state space $mathcalS$ and action space $mathcalA$を考える。
対象の精度を考慮すれば,モデルに基づく計画アルゴリズムが最小限のサンプルの複雑さを実現するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-05-26T17:53:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。