論文の概要: Scaling up Trustless DNN Inference with Zero-Knowledge Proofs
- arxiv url: http://arxiv.org/abs/2210.08674v1
- Date: Mon, 17 Oct 2022 00:35:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 21:52:33.186111
- Title: Scaling up Trustless DNN Inference with Zero-Knowledge Proofs
- Title(参考訳): ゼロ知識証明による信頼できないDNN推論のスケールアップ
- Authors: Daniel Kang, Tatsunori Hashimoto, Ion Stoica, Yi Sun
- Abstract要約: 本稿では,MLモデル推論を非インタラクティブに検証する,最初の実用的なImageNet-scale法を提案する。
フル解像度のImageNetモデルに対する有効な推論のZKSNARK証明を初めて提供し、79%のトップ5精度を実現した。
- 参考スコア(独自算出の注目度): 47.42532753464726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As ML models have increased in capabilities and accuracy, so has the
complexity of their deployments. Increasingly, ML model consumers are turning
to service providers to serve the ML models in the ML-as-a-service (MLaaS)
paradigm. As MLaaS proliferates, a critical requirement emerges: how can model
consumers verify that the correct predictions were served, in the face of
malicious, lazy, or buggy service providers?
In this work, we present the first practical ImageNet-scale method to verify
ML model inference non-interactively, i.e., after the inference has been done.
To do so, we leverage recent developments in ZK-SNARKs (zero-knowledge succinct
non-interactive argument of knowledge), a form of zero-knowledge proofs.
ZK-SNARKs allows us to verify ML model execution non-interactively and with
only standard cryptographic hardness assumptions. In particular, we provide the
first ZK-SNARK proof of valid inference for a full resolution ImageNet model,
achieving 79\% top-5 accuracy. We further use these ZK-SNARKs to design
protocols to verify ML model execution in a variety of scenarios, including for
verifying MLaaS predictions, verifying MLaaS model accuracy, and using ML
models for trustless retrieval. Together, our results show that ZK-SNARKs have
the promise to make verified ML model inference practical.
- Abstract(参考訳): MLモデルは能力と精度が向上し、デプロイメントの複雑さも増している。
MLモデル消費者は、ML-as-a-service(MLaaS)パラダイムでMLモデルを提供するために、サービスプロバイダに目を向けている。
モデルコンシューマは、悪意のあるサービスプロバイダや怠け者、バグの多いサービスプロバイダに対して、正しい予測が提供されたことをどうやって検証できるのか?
本研究では,MLモデル推論を非インタラクティブに検証する,最初の実用的なImageNet-scale法を提案する。
そのため,zk-snarks (zero-knowledge succinct non-interactive argument of knowledge) では,ゼロ知識証明の形式である。
ZK-SNARKはMLモデルの実行を非対話的に検証し、標準の暗号ハードネス仮定でのみ検証する。
特に、フル解像度のImageNetモデルに対して有効な推論のZK-SNARK証明を初めて提供し、79\%のトップ5精度を実現した。
さらに、これらのZK-SNARKを使用して、MLaaS予測の検証、MLaaSモデルの精度の検証、信頼できない検索のためのMLモデルの使用など、さまざまなシナリオでMLモデル実行を検証するプロトコルを設計する。
この結果から,ZK-SNARKはMLモデル推論を実用的なものにすることを約束していることがわかった。
関連論文リスト
- A General Framework for Data-Use Auditing of ML Models [47.369572284751285]
本稿では,データ所有者のデータを用いた学習におけるMLモデルの評価方法を提案する。
本稿では,2種類のMLモデルにおけるデータ利用を監査するために,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2024-07-21T09:32:34Z) - MLGuard: Defend Your Machine Learning Model! [3.4069804433026314]
機械学習アプリケーションのコントラクトを指定する新しいアプローチであるMLGuardを提案する。
私たちの仕事は、MLアプリケーションの構築と安全性の監視に必要な、包括的なフレームワークを提供することを目的としています。
論文 参考訳(メタデータ) (2023-09-04T06:08:11Z) - ezDPS: An Efficient and Zero-Knowledge Machine Learning Inference
Pipeline [2.0813318162800707]
我々は,新しい効率的かつゼロ知識の機械学習推論スキームであるezDPSを提案する。
ezDPSはzkMLパイプラインで、データを複数のステージで高精度に処理する。
ezDPSは,全測定値における一般的な回路ベース手法よりも1~3桁効率が高いことを示す。
論文 参考訳(メタデータ) (2022-12-11T06:47:28Z) - Predicting is not Understanding: Recognizing and Addressing
Underspecification in Machine Learning [47.651130958272155]
下位仕様とは、ドメイン内の精度で区別できない複数のモデルの存在を指す。
我々は、不特定概念を形式化し、それを特定し、部分的に対処する方法を提案する。
論文 参考訳(メタデータ) (2022-07-06T11:20:40Z) - VisFIS: Visual Feature Importance Supervision with
Right-for-the-Right-Reason Objectives [84.48039784446166]
モデルFI監督は、VQAモデルの精度と、Right-to-the-Right-Reasonメトリクスの性能を有意義に向上させることができることを示す。
我々の最高のパフォーマンス手法であるVisual Feature Importance Supervision (VisFIS)は、ベンチマークVQAデータセットで強いベースラインを上回ります。
説明が妥当で忠実な場合には予測がより正確になる。
論文 参考訳(メタデータ) (2022-06-22T17:02:01Z) - Reducing Unintended Bias of ML Models on Tabular and Textual Data [5.503546193689538]
我々は、より公平なモデルを構築するために、"無意識によるフェアネス"アプローチにインスパイアされたフレームワークであるFixOutを再考する。
FixOutのパラメータの選択を自動化するなど、いくつかの改善点を紹介します。
我々は、FixOutが異なる分類設定におけるプロセスの公平性を改善することを示す実験結果をいくつか提示する。
論文 参考訳(メタデータ) (2021-08-05T14:55:56Z) - MLDemon: Deployment Monitoring for Machine Learning Systems [10.074466859579571]
ML Deployment Monitoritoring のための新しいアプローチ MLDemon を提案します。
MLDemonはラベル付けされていない機能と少数のオンデマンドラベル付きサンプルを統合して、リアルタイムの見積を生成する。
多様な分布のドリフトとモデルを持つ時間データセットでは、MLDemonは既存のモニタリングアプローチを大幅に上回っている。
論文 参考訳(メタデータ) (2021-04-28T07:59:10Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Model Assertions for Monitoring and Improving ML Models [26.90089824436192]
本稿では,MLモデルの監視と改善を行う手段として,プログラムアサーションの古典的利用に適応した新しい抽象化,モデルアサーションを提案する。
モデルアサーションは、モデルがいつエラーが発生したかを示す入力と出力の任意の関数である。
本稿では,ランタイム監視,ラベルの検証,MLモデルの継続的な改善など,MLシステムデプロイメントのすべての段階におけるモデルアサーションの使用方法を提案する。
論文 参考訳(メタデータ) (2020-03-03T17:49:49Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。