論文の概要: Privacy-Preserving Verifiable Neural Network Inference Service
- arxiv url: http://arxiv.org/abs/2411.07468v2
- Date: Wed, 13 Nov 2024 03:07:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 12:31:36.871374
- Title: Privacy-Preserving Verifiable Neural Network Inference Service
- Title(参考訳): プライバシ保護による検証可能なニューラルネットワーク推論サービス
- Authors: Arman Riasi, Jorge Guajardo, Thang Hoang,
- Abstract要約: 我々は,クライアントデータサンプルのプライバシを保存するために,プライバシ保護と検証が可能なCNN推論手法を開発した。
vPINは、クライアントデータのプライバシ保証と証明可能な検証性を提供しながら、証明サイズの観点から高い効率を達成する。
- 参考スコア(独自算出の注目度): 4.131956503199438
- License:
- Abstract: Machine learning has revolutionized data analysis and pattern recognition, but its resource-intensive training has limited accessibility. Machine Learning as a Service (MLaaS) simplifies this by enabling users to delegate their data samples to an MLaaS provider and obtain the inference result using a pre-trained model. Despite its convenience, leveraging MLaaS poses significant privacy and reliability concerns to the client. Specifically, sensitive information from the client inquiry data can be leaked to an adversarial MLaaS provider. Meanwhile, the lack of a verifiability guarantee can potentially result in biased inference results or even unfair payment issues. While existing trustworthy machine learning techniques, such as those relying on verifiable computation or secure computation, offer solutions to privacy and reliability concerns, they fall short of simultaneously protecting the privacy of client data and providing provable inference verifiability. In this paper, we propose vPIN, a privacy-preserving and verifiable CNN inference scheme that preserves privacy for client data samples while ensuring verifiability for the inference. vPIN makes use of partial homomorphic encryption and commit-and-prove succinct non-interactive argument of knowledge techniques to achieve desirable security properties. In vPIN, we develop various optimization techniques to minimize the proving circuit for homomorphic inference evaluation thereby, improving the efficiency and performance of our technique. We fully implemented and evaluated our vPIN scheme on standard datasets (e.g., MNIST, CIFAR-10). Our experimental results show that vPIN achieves high efficiency in terms of proving time, verification time, and proof size, while providing client data privacy guarantees and provable verifiability.
- Abstract(参考訳): 機械学習はデータ分析とパターン認識に革命をもたらしたが、リソース集約的なトレーニングはアクセシビリティに制限がある。
機械学習・アズ・ア・サービス(MLaaS)は、ユーザがデータサンプルをMLaaSプロバイダに委譲し、事前トレーニングされたモデルを使用して推論結果を得ることを可能にすることで、これを単純化する。
その利便性にもかかわらず、MLaaSを活用することは、クライアントに重大なプライバシと信頼性の懸念をもたらす。
具体的には、クライアントの問い合わせデータからの機密情報を敵のMLaaSプロバイダにリークすることができる。
一方、検証可能性保証の欠如は、バイアスのある推論結果や不公平な支払い問題を引き起こす可能性がある。
検証可能な計算やセキュアな計算に依存するような、既存の信頼できる機械学習技術は、プライバシと信頼性に関する懸念に対してソリューションを提供するが、クライアントデータのプライバシを同時に保護し、証明可能な推論検証性を提供するには不足している。
本稿では,クライアントデータサンプルのプライバシを保護し,推論の妥当性を確保しつつ,プライバシ保護と検証が可能なCNN推論スキームであるvPINを提案する。
vPINは、部分的同型暗号化と、望ましいセキュリティ特性を達成するために、知識技術の簡潔な非対話的議論を利用する。
vPINにおいて、同型推論評価のための証明回路を最小化するために様々な最適化手法を開発し、その効率と性能を改善した。
我々は、標準データセット(例えば、MNIST、CIFAR-10)でvPINスキームを完全に実装し、評価した。
実験の結果,vPINは検証時間,検証時間,証明サイズの観点から高い効率性を実現し,クライアントデータのプライバシ保証と検証性を実現していることがわかった。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Certifiably Byzantine-Robust Federated Conformal Prediction [49.23374238798428]
本稿では,悪意のあるクライアントに対する堅牢な共形予測を行う新しいフレームワークRob-FCPを提案する。
我々は、さまざまなビザンチン攻撃の下で、悪意のあるクライアントの多様な割合に対するRob-FCPの堅牢性を実証的に実証した。
論文 参考訳(メタデータ) (2024-06-04T04:43:30Z) - Secure and Verifiable Data Collaboration with Low-Cost Zero-Knowledge
Proofs [30.260427020479536]
本稿では,セキュアかつ検証可能なデータコラボレーションのための新しい高効率ソリューションRiseFLを提案する。
まず,ZKP生成と検証のコストを大幅に削減する確率論的整合性検査法を提案する。
第3に,ビザンチンのロバスト性を満たすハイブリッドなコミットメントスキームを設計し,性能を向上する。
論文 参考訳(メタデータ) (2023-11-26T14:19:46Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - ABC-FL: Anomalous and Benign client Classification in Federated Learning [0.0]
Federated Learningは、データプライバシ保護用に設計された分散機械学習フレームワークである。
ディープラーニング技術で発生した脆弱性と感受性を継承する。
非独立性およびIdentically Distributed(非IID)データのため、悪意のあるクライアントを正しく識別することは困難である。
良性クライアントが非IIDデータを持つ場合,良性クライアントから異常クライアントを検出し,分類する手法を提案する。
論文 参考訳(メタデータ) (2021-08-10T09:54:25Z) - Efficient CNN Building Blocks for Encrypted Data [6.955451042536852]
ホモモルフィック暗号化(FHE)は機械学習と推論を可能にする有望な技術である。
選択したFHE方式の動作パラメータが機械学習モデルの設計に大きな影響を与えることを示す。
実験により, 上記の設計パラメータの選択は, 精度, セキュリティレベル, 計算時間の間に大きなトレードオフをもたらすことがわかった。
論文 参考訳(メタデータ) (2021-01-30T21:47:23Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Towards Probabilistic Verification of Machine Unlearning [30.892906429582904]
本稿では,データ削除要求に対する検証機構の設計について研究する形式的枠組みを提案する。
提案手法は,機械学習サービスの精度に最小限の影響を与えるが,未学習に対する信頼性の高い検証を可能にする。
論文 参考訳(メタデータ) (2020-03-09T16:39:46Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。