論文の概要: Private and Reliable Neural Network Inference
- arxiv url: http://arxiv.org/abs/2210.15614v1
- Date: Thu, 27 Oct 2022 16:58:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 13:37:39.417830
- Title: Private and Reliable Neural Network Inference
- Title(参考訳): プライベートで信頼性の高いニューラルネットワーク推論
- Authors: Nikola Jovanovi\'c, Marc Fischer, Samuel Steffen, Martin Vechev
- Abstract要約: 本稿では,信頼できるNN上でのプライバシ保護推論を可能にする最初のシステムを提案する。
我々はこれらのビルディングブロックを用いて、Phoenixと呼ばれるシステムにおいて、堅牢性と公正性を保証するプライバシー保護NN推論を可能にする。
- 参考スコア(独自算出の注目度): 6.7386666699567845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reliable neural networks (NNs) provide important inference-time reliability
guarantees such as fairness and robustness. Complementarily, privacy-preserving
NN inference protects the privacy of client data. So far these two emerging
areas have been largely disconnected, yet their combination will be
increasingly important. In this work, we present the first system which enables
privacy-preserving inference on reliable NNs. Our key idea is to design
efficient fully homomorphic encryption (FHE) counterparts for the core
algorithmic building blocks of randomized smoothing, a state-of-the-art
technique for obtaining reliable models. The lack of required control flow in
FHE makes this a demanding task, as na\"ive solutions lead to unacceptable
runtime. We employ these building blocks to enable privacy-preserving NN
inference with robustness and fairness guarantees in a system called Phoenix.
Experimentally, we demonstrate that Phoenix achieves its goals without
incurring prohibitive latencies. To our knowledge, this is the first work which
bridges the areas of client data privacy and reliability guarantees for NNs.
- Abstract(参考訳): 信頼性ニューラルネットワーク(NN)は、公正性や堅牢性といった重要な推論時の信頼性を保証する。
補完的に、プライバシ保存nn推論は、クライアントデータのプライバシを保護する。
これまでのところ、これらの2つの新興地域は大部分が切り離されているが、それらの組み合わせはますます重要になるだろう。
本研究では,信頼性の高いNN上でのプライバシ保護推論を可能にする最初のシステムを提案する。
我々のキーとなる考え方は、信頼度の高いモデルを得るための最先端技術であるランダム化スムーシングのアルゴリズム構築ブロックに対して、効率的な完全同型暗号化(FHE)を設計することである。
要求される制御フローの欠如は、na\" ソリューションが許容できないランタイムにつながるため、これを要求すべきタスクにする。
我々はこれらのビルディングブロックを用いて、Phoenixと呼ばれるシステムにおいて、堅牢性と公正性を保証するプライバシー保護NN推論を可能にする。
実験により,フェニックスは禁止レイテンシーを伴わずに目標を達成することを示した。
私たちの知る限り、これはクライアントデータのプライバシとNNの信頼性保証の領域を橋渡しする最初の作業です。
関連論文リスト
- Privacy-Preserving Hybrid Ensemble Model for Network Anomaly Detection: Balancing Security and Data Protection [6.5920909061458355]
本稿では,検出精度とデータ保護の両方に対処するために,プライバシー保護技術を組み込んだハイブリッドアンサンブルモデルを提案する。
我々のモデルは、K-Nearest Neighbors(KNN)、SVM(Support Vector Machines)、XGBoost(XGBoost)、Artificial Neural Networks(ANN)など、いくつかの機械学習アルゴリズムの長所を組み合わせる。
論文 参考訳(メタデータ) (2025-02-13T06:33:16Z) - Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - Towards Secure and Private AI: A Framework for Decentralized Inference [14.526663289437584]
大規模マルチモーダル基盤モデルは、スケーラビリティ、信頼性、潜在的な誤用に関する課題を提示する。
分散システムは、ワークロードの分散と障害の中心的なポイントの緩和によるソリューションを提供する。
これらの課題に対処するためには、AI開発に責任を負うように設計された包括的なフレームワークを使います。
論文 参考訳(メタデータ) (2024-07-28T05:09:17Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Unveiling the Role of Message Passing in Dual-Privacy Preservation on
GNNs [7.626349365968476]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークなどのグラフ上で表現を学習するための強力なツールである。
プライバシを保存するGNNは、ノードやリンクのプライバシの保護に重点を置いて提案されている。
本稿では,ノードとリンクの両方を効果的に保護するプライバシー保護型GNNフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-25T17:46:43Z) - Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - Unraveling Privacy Risks of Individual Fairness in Graph Neural Networks [66.0143583366533]
グラフニューラルネットワーク(GNN)は、その拡張現実の応用により、大きな注目を集めている。
信頼できるGNNを構築するためには、公平性とプライバシという2つの側面が重要な考慮事項として浮上している。
これまでの研究では、GNNの公平性とプライバシの側面を別々に検討し、GNNのパフォーマンスとのトレードオフを明らかにしている。
しかし、この2つの側面の相互作用は未解明のままである。
論文 参考訳(メタデータ) (2023-01-30T14:52:23Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Federated Neural Collaborative Filtering [0.0]
我々は、アイテムレコメンデーションのための最先端のニューラルコラボレーティブ・フィルタリング(NCF)アプローチのフェデレーション版を提案する。
FedNCFと名付けられたこのシステムは、ユーザが生データを公開したり送信したりすることなく、学習ができる。
FLの協調フィルタリング(CF)タスクにおける特殊性について検討するとともに,計算コストの観点からプライバシ保護機構の評価を行った。
論文 参考訳(メタデータ) (2021-06-02T21:05:41Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。