論文の概要: Artemis: Efficient Commit-and-Prove SNARKs for zkML
- arxiv url: http://arxiv.org/abs/2409.12055v2
- Date: Fri, 13 Jun 2025 15:03:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.433091
- Title: Artemis: Efficient Commit-and-Prove SNARKs for zkML
- Title(参考訳): Artemis: zkMLの効率的なコミット&プロブSNARK
- Authors: Hidde Lycklama, Alexander Viand, Nikolay Avramov, Nicolas Küchler, Anwar Hithnawi,
- Abstract要約: 本稿では、zkMLにおけるコミットメント検証の課題を効果的に解決する新しいコミット・アンド・プロブSNARK構築であるArtemisを紹介する。
提案手法は既存手法よりも大幅に改善され, 証明コストの大幅な削減, 大規模モデルにおいても効率の維持が図られた。
- 参考スコア(独自算出の注目度): 42.16294591171022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring that AI models are both verifiable and privacy-preserving is important for trust, accountability, and compliance. To address these concerns, recent research has focused on developing zero-knowledge machine learning (zkML) techniques that enable the verification of various aspects of ML models without revealing sensitive information. However, while recent zkML advances have made significant improvements to the efficiency of proving ML computations, they have largely overlooked the costly consistency checks on committed model parameters and input data, which have become a dominant performance bottleneck. To address this gap, this paper introduces a new Commit-and-Prove SNARK (CP-SNARK) construction, Artemis, that effectively addresses the emerging challenge of commitment verification in zkML pipelines. In contrast to existing approaches, Artemis is compatible with any homomorphic polynomial commitment, including those without trusted setup. We present the first implementation of this CP-SNARK, evaluate its performance on a diverse set of ML models, and show substantial improvements over existing methods, achieving significant reductions in prover costs and maintaining efficiency even for large-scale models. For example, for the VGG model, we reduce the overhead associated with commitment checks from 11.5x to 1.1x. Our results indicate that Artemis provides a concrete step toward practical deployment of zkML, particularly in settings involving large-scale or complex models.
- Abstract(参考訳): AIモデルが検証可能であり、プライバシ保護の両方を保証することは、信頼性、説明責任、コンプライアンスにとって重要である。
これらの問題に対処するため、最近の研究では、機密情報を明らかにすることなくMLモデルの様々な側面の検証を可能にするゼロ知識機械学習(zkML)技術の開発に重点を置いている。
しかし、最近のzkMLの進歩により、ML計算の効率が大幅に向上する一方で、コミットモデルパラメータと入力データに対するコストのかかる一貫性チェックが主なパフォーマンスボトルネックとなっていることを概ね見落としている。
このギャップに対処するため,本研究では,zkMLパイプラインにおけるコミットメント検証の課題を効果的に解決する,新しいコミット・アンド・プローブSNARK(CP-SNARK)の構築について紹介する。
既存のアプローチとは対照的に、アルテミスは信頼されたセットアップを持たないものを含む任意の同型多項式のコミットメントと互換性がある。
本稿では,このCP-SNARKを初めて実装し,多様なMLモデル上での性能評価を行い,既存の手法よりも大幅に向上し,証明コストの大幅な削減と大規模モデルにおいても効率の維持を実現した。
例えば、VGGモデルでは、コミットメントチェックに関連するオーバーヘッドを11.5xから1.1xに削減する。
以上の結果から,Artemis は zkML の実践的な展開に向けて,特に大規模モデルや複雑なモデルを含む設定において具体的な一歩を踏み出したことが示唆された。
関連論文リスト
- Loss Landscape Analysis for Reliable Quantized ML Models for Scientific Sensing [41.89148096989836]
機械学習(ML)モデルの損失景観を実証分析する手法を提案する。
本手法は,MLモデルのロバスト性を,量子化精度の関数や異なる正規化手法の下で評価することができる。
論文 参考訳(メタデータ) (2025-02-12T12:30:49Z) - LLM2: Let Large Language Models Harness System 2 Reasoning [65.89293674479907]
大規模言語モデル(LLM)は、無数のタスクにまたがって印象的な機能を示してきたが、時には望ましくない出力が得られる。
本稿では LLM とプロセスベースの検証器を組み合わせた新しいフレームワーク LLM2 を紹介する。
LLMs2は妥当な候補を生成するのに責任を持ち、検証者は望ましい出力と望ましくない出力を区別するためにタイムリーなプロセスベースのフィードバックを提供する。
論文 参考訳(メタデータ) (2024-12-29T06:32:36Z) - On the Robustness of Distributed Machine Learning against Transfer Attacks [1.0787328610467801]
学習プロセスと推論プロセスの両方を分散させることによる堅牢性の組み合わせについて、事前の研究は行われていない。
本研究では,MLインスタンスの適切な分散化により,最先端の転送ベース攻撃に対する精度損耗トレードオフの改善が達成されることを示す。
論文 参考訳(メタデータ) (2024-12-18T17:27:17Z) - Language Models as Zero-shot Lossless Gradient Compressors: Towards
General Neural Parameter Prior Models [66.1595537904019]
大型言語モデル(LLM)はゼロショット設定でグラデーション先行として振る舞うことができる。
本稿では,LSMと算術符号を統合する新しい手法であるLM-GCを紹介する。
論文 参考訳(メタデータ) (2024-09-26T13:38:33Z) - Beyond Task Performance: Evaluating and Reducing the Flaws of Large
Multimodal Models with In-Context Learning [105.77733287326308]
我々は,3Bから80Bパラメータスケールまでの最近のオープンソースLMMを,幻覚,禁忌,構成性,説明可能性,指示に従う5つの異なる軸で評価した。
トレーニングフリーなインコンテキスト学習(ICL)をソリューションとして検討し、それがこれらの制限に与える影響について検討する。
ICL研究に基づき、ICLをさらに推し進め、Multitask-ICL、Chain-of-Hindsight-ICL、Self-Correcting-ICLといった新しい多モードICL変種を提案する。
論文 参考訳(メタデータ) (2023-10-01T12:02:59Z) - Towards Self-Adaptive Machine Learning-Enabled Systems Through QoS-Aware
Model Switching [1.2277343096128712]
本稿では,機械学習モデルバランサの概念を提案し,複数のモデルを用いてMLモデルに関連する不確実性を管理する。
AdaMLSは、この概念を活用し、従来のMAPE-Kループを拡張した新しい自己適応手法である。
予備的な結果は、AdaMLSが保証において、単純で単一の最先端モデルを上回ることを示唆している。
論文 参考訳(メタデータ) (2023-08-19T09:33:51Z) - FineQuant: Unlocking Efficiency with Fine-Grained Weight-Only
Quantization for LLMs [9.072821427818557]
大規模言語モデル(LLM)は、様々な言語タスクで最先端のパフォーマンスを達成しているが、実用的なデプロイメントには課題がある。
メモリ消費を削減し,LLMの推論を高速化する,効率的な重みのみの量子化法を提案する。
我々は,OPT-175Bや内部MoEモデルのような大規模オープンソースモデルに対するアプローチを評価し,スループットを最大3.65倍に向上しながら,最小限の精度の損失を示す。
論文 参考訳(メタデータ) (2023-08-16T23:57:41Z) - ezDPS: An Efficient and Zero-Knowledge Machine Learning Inference
Pipeline [2.0813318162800707]
我々は,新しい効率的かつゼロ知識の機械学習推論スキームであるezDPSを提案する。
ezDPSはzkMLパイプラインで、データを複数のステージで高精度に処理する。
ezDPSは,全測定値における一般的な回路ベース手法よりも1~3桁効率が高いことを示す。
論文 参考訳(メタデータ) (2022-12-11T06:47:28Z) - Scaling up Trustless DNN Inference with Zero-Knowledge Proofs [47.42532753464726]
本稿では,MLモデル推論を非インタラクティブに検証する,最初の実用的なImageNet-scale法を提案する。
フル解像度のImageNetモデルに対する有効な推論のZKSNARK証明を初めて提供し、79%のトップ5精度を実現した。
論文 参考訳(メタデータ) (2022-10-17T00:35:38Z) - Approximate Computing and the Efficient Machine Learning Expedition [9.79841817640016]
近似コンピューティング(AxC)は、緩和された精度要件を犠牲にして、効率的なシステム実装のための設計代替案として長い間受け入れられてきた。
さまざまなアプリケーション領域におけるAxCの研究活動にもかかわらず、AxCは機械学習(ML)に適用された過去10年間に成長した。
論文 参考訳(メタデータ) (2022-10-02T12:10:39Z) - Benchmarking Machine Learning Robustness in Covid-19 Genome Sequence
Classification [109.81283748940696]
我々は、IlluminaやPacBioといった一般的なシークエンシングプラットフォームのエラープロファイルを模倣するために、SARS-CoV-2ゲノム配列を摂動する方法をいくつか紹介する。
シミュレーションに基づくいくつかのアプローチは、入力シーケンスに対する特定の敵攻撃に対する特定の埋め込み手法に対して、他の手法よりも堅牢(かつ正確)であることを示す。
論文 参考訳(メタデータ) (2022-07-18T19:16:56Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。