論文の概要: Artemis: Efficient Commit-and-Prove SNARKs for zkML
- arxiv url: http://arxiv.org/abs/2409.12055v1
- Date: Wed, 18 Sep 2024 15:30:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 16:55:29.579916
- Title: Artemis: Efficient Commit-and-Prove SNARKs for zkML
- Title(参考訳): Artemis: zkMLの効率的なコミット&プロブSNARK
- Authors: Hidde Lycklama, Alexander Viand, Nikolay Avramov, Nicolas Küchler, Anwar Hithnawi,
- Abstract要約: ZkML技術は、センシティブな情報を明らかにすることなく、機械学習モデルのさまざまな側面の検証を可能にする。
zkMLの最近の進歩は、効率を大幅に改善した。
本稿では,コミット検証の課題を効果的に解決する2つの新しいコミット・アンド・プロブSNARK構造を提案する。
- 参考スコア(独自算出の注目度): 42.16294591171022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread adoption of machine learning (ML) in various critical applications, from healthcare to autonomous systems, has raised significant concerns about privacy, accountability, and trustworthiness. To address these concerns, recent research has focused on developing zero-knowledge machine learning (zkML) techniques that enable the verification of various aspects of ML models without revealing sensitive information. Recent advances in zkML have substantially improved efficiency; however, these efforts have primarily optimized the process of proving ML computations correct, often overlooking the substantial overhead associated with verifying the necessary commitments to the model and data. To address this gap, this paper introduces two new Commit-and-Prove SNARK (CP-SNARK) constructions (Apollo and Artemis) that effectively address the emerging challenge of commitment verification in zkML pipelines. Apollo operates on KZG commitments and requires white-box use of the underlying proof system, whereas Artemis is compatible with any homomorphic polynomial commitment and only makes black-box use of the proof system. As a result, Artemis is compatible with state-of-the-art proof systems without trusted setup. We present the first implementation of these CP-SNARKs, evaluate their performance on a diverse set of ML models, and show substantial improvements over existing methods, achieving significant reductions in prover costs and maintaining efficiency even for large-scale models. For example, for the VGG model, we reduce the overhead associated with commitment checks from 11.5x to 1.2x. Our results suggest that these contributions can move zkML towards practical deployment, particularly in scenarios involving large and complex ML models.
- Abstract(参考訳): 医療から自律システムまで、さまざまな重要なアプリケーションに機械学習(ML)が広く採用されていることで、プライバシ、説明責任、信頼性に関する大きな懸念が持ち上がっている。
これらの問題に対処するため、最近の研究では、機密情報を明らかにすることなくMLモデルの様々な側面の検証を可能にするゼロ知識機械学習(zkML)技術の開発に重点を置いている。
zkMLの最近の進歩は、効率を大幅に改善しているが、これらの取り組みは主にML計算を正しく証明するプロセスを最適化しており、しばしばモデルとデータに対する必要なコミットメントを検証することに伴うかなりのオーバーヘッドを見落としている。
このギャップに対処するため,本研究では,zkMLパイプラインにおけるコミットメント検証の課題を効果的に解決する2つの新しいコミット・アンド・プローブSNARK (CP-SNARK) 構造 (Apollo と Artemis) を提案する。
アポロはKZGのコミットメントに基づいており、基礎となる証明体系をホワイトボックスで使う必要があるが、アルテミスは任意の同型多項式のコミットメントと互換性があり、証明体系をブラックボックスでのみ利用する。
その結果、Artemisは信頼性の高いセットアップなしで最先端の証明システムと互換性がある。
本稿では,これらのCP-SNARKを初めて実装し,様々なMLモデル上での性能評価を行い,既存の手法よりも大幅に向上し,証明コストの大幅な削減と大規模モデルにおいても効率の維持を実現した。
例えば、VGGモデルでは、コミットメントチェックに関連するオーバーヘッドを11.5xから1.2xに削減する。
以上の結果から,これらのコントリビューションは,特に大規模かつ複雑なMLモデルを含むシナリオにおいて,zkMLを実践的なデプロイメントへと移行させることが可能であることが示唆された。
関連論文リスト
- Language Models as Zero-shot Lossless Gradient Compressors: Towards
General Neural Parameter Prior Models [66.1595537904019]
大型言語モデル(LLM)はゼロショット設定でグラデーション先行として振る舞うことができる。
本稿では,LSMと算術符号を統合する新しい手法であるLM-GCを紹介する。
論文 参考訳(メタデータ) (2024-09-26T13:38:33Z) - Beyond Task Performance: Evaluating and Reducing the Flaws of Large
Multimodal Models with In-Context Learning [105.77733287326308]
我々は,3Bから80Bパラメータスケールまでの最近のオープンソースLMMを,幻覚,禁忌,構成性,説明可能性,指示に従う5つの異なる軸で評価した。
トレーニングフリーなインコンテキスト学習(ICL)をソリューションとして検討し、それがこれらの制限に与える影響について検討する。
ICL研究に基づき、ICLをさらに推し進め、Multitask-ICL、Chain-of-Hindsight-ICL、Self-Correcting-ICLといった新しい多モードICL変種を提案する。
論文 参考訳(メタデータ) (2023-10-01T12:02:59Z) - Towards Self-Adaptive Machine Learning-Enabled Systems Through QoS-Aware
Model Switching [1.2277343096128712]
本稿では,機械学習モデルバランサの概念を提案し,複数のモデルを用いてMLモデルに関連する不確実性を管理する。
AdaMLSは、この概念を活用し、従来のMAPE-Kループを拡張した新しい自己適応手法である。
予備的な結果は、AdaMLSが保証において、単純で単一の最先端モデルを上回ることを示唆している。
論文 参考訳(メタデータ) (2023-08-19T09:33:51Z) - FineQuant: Unlocking Efficiency with Fine-Grained Weight-Only
Quantization for LLMs [9.072821427818557]
大規模言語モデル(LLM)は、様々な言語タスクで最先端のパフォーマンスを達成しているが、実用的なデプロイメントには課題がある。
メモリ消費を削減し,LLMの推論を高速化する,効率的な重みのみの量子化法を提案する。
我々は,OPT-175Bや内部MoEモデルのような大規模オープンソースモデルに対するアプローチを評価し,スループットを最大3.65倍に向上しながら,最小限の精度の損失を示す。
論文 参考訳(メタデータ) (2023-08-16T23:57:41Z) - ezDPS: An Efficient and Zero-Knowledge Machine Learning Inference
Pipeline [2.0813318162800707]
我々は,新しい効率的かつゼロ知識の機械学習推論スキームであるezDPSを提案する。
ezDPSはzkMLパイプラインで、データを複数のステージで高精度に処理する。
ezDPSは,全測定値における一般的な回路ベース手法よりも1~3桁効率が高いことを示す。
論文 参考訳(メタデータ) (2022-12-11T06:47:28Z) - Scaling up Trustless DNN Inference with Zero-Knowledge Proofs [47.42532753464726]
本稿では,MLモデル推論を非インタラクティブに検証する,最初の実用的なImageNet-scale法を提案する。
フル解像度のImageNetモデルに対する有効な推論のZKSNARK証明を初めて提供し、79%のトップ5精度を実現した。
論文 参考訳(メタデータ) (2022-10-17T00:35:38Z) - Approximate Computing and the Efficient Machine Learning Expedition [9.79841817640016]
近似コンピューティング(AxC)は、緩和された精度要件を犠牲にして、効率的なシステム実装のための設計代替案として長い間受け入れられてきた。
さまざまなアプリケーション領域におけるAxCの研究活動にもかかわらず、AxCは機械学習(ML)に適用された過去10年間に成長した。
論文 参考訳(メタデータ) (2022-10-02T12:10:39Z) - Benchmarking Machine Learning Robustness in Covid-19 Genome Sequence
Classification [109.81283748940696]
我々は、IlluminaやPacBioといった一般的なシークエンシングプラットフォームのエラープロファイルを模倣するために、SARS-CoV-2ゲノム配列を摂動する方法をいくつか紹介する。
シミュレーションに基づくいくつかのアプローチは、入力シーケンスに対する特定の敵攻撃に対する特定の埋め込み手法に対して、他の手法よりも堅牢(かつ正確)であることを示す。
論文 参考訳(メタデータ) (2022-07-18T19:16:56Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。