論文の概要: How Breakable Is Privacy: Probing and Resisting Model Inversion Attacks in Collaborative Inference
- arxiv url: http://arxiv.org/abs/2501.00824v4
- Date: Fri, 18 Apr 2025 02:06:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-21 15:46:21.313824
- Title: How Breakable Is Privacy: Probing and Resisting Model Inversion Attacks in Collaborative Inference
- Title(参考訳): プライバシーの破滅:協力的推論におけるモデルインバージョンアタックの検証と登録
- Authors: Rongke Liu,
- Abstract要約: 協調推論は、中間機能をクラウドモデルに伝達することでエッジデバイスの計算効率を向上させる。
モデル逆攻撃(MIA)の難しさを評価するための確立された基準はない。
本稿では、CIにおけるMIAの難易度を評価するための最初の理論的基準を提案し、相互情報、エントロピー、有効情報量などを重要な要因として同定する。
- 参考スコア(独自算出の注目度): 9.092229145160763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative inference (CI) improves computational efficiency for edge devices by transmitting intermediate features to cloud models. However, this process inevitably exposes feature representations to model inversion attacks (MIAs), enabling unauthorized data reconstruction. Despite extensive research, there is no established criterion for assessing the difficulty of MIA implementation, leaving a fundamental question unanswered: \textit{What factors truly and verifiably determine the attack's success in CI?} Moreover, existing defenses lack the theoretical foundation described above, making it challenging to regulate feature information effectively while ensuring privacy and minimizing computational overhead. These shortcomings introduce three key challenges: theoretical gap, methodological limitation, and practical constraint. To overcome these challenges, we propose the first theoretical criterion to assess MIA difficulty in CI, identifying mutual information, entropy, and effective information volume as key influencing factors. The validity of this criterion is demonstrated by using the mutual information neural estimator. Building on this insight, we propose SiftFunnel, a privacy-preserving framework to resist MIA while maintaining usability. Specifically, we incorporate linear and non-linear correlation constraints alongside label smoothing to suppress redundant information transmission, effectively balancing privacy and usability. To enhance deployability, the edge model adopts a funnel-shaped structure with attention mechanisms, strengthening privacy while reducing computational and storage burdens. Experiments show that, compared to state-of-the-art defense, SiftFunnel increases reconstruction error by $\sim$30\%, lowers mutual and effective information metrics by $\geq$50\%, and reduces edge burdens by almost $20\times$, while maintaining comparable usability.
- Abstract(参考訳): 協調推論(CI)は、中間機能をクラウドモデルに伝達することでエッジデバイスの計算効率を向上させる。
しかし、このプロセスは必然的に特徴表現をモデル逆攻撃(MIAs)に公開し、不正なデータ再構成を可能にする。
広範な研究にもかかわらず、MIA実装の難しさを評価するための確立された基準は存在しない。
さらに、既存の防衛は上記の理論的基盤を欠いているため、プライバシーを確保し、計算オーバーヘッドを最小限に抑えつつ、特徴情報を効果的に規制することは困難である。
これらの欠点は、理論的なギャップ、方法論的な制限、実践的な制約という3つの重要な課題をもたらす。
これらの課題を克服するために、我々はCIにおけるMIAの難易度を評価するための最初の理論的基準を提案し、相互情報、エントロピー、有効情報量などを重要な要因として特定する。
この基準の妥当性は、相互情報ニューラル推定器を用いて示される。
この知見に基づいて、ユーザビリティを維持しつつMIAに抵抗するプライバシー保護フレームワークSiftFunnelを提案する。
具体的には、ラベルの平滑化とともに線形および非線形の相関制約を組み込んで冗長な情報伝達を抑え、プライバシーとユーザビリティを効果的にバランスさせる。
デプロイ性を高めるため、エッジモデルは、注意機構を備えたファンネル型の構造を採用し、計算やストレージの負担を軽減しつつ、プライバシを強化する。
実験によると、最先端の防御と比較して、SiftFunnelは再構築エラーを$\sim$30\%増加させ、相互および効果的な情報メトリクスを$\geq$50\%減少させ、エッジの負担をほぼ20\times$に削減し、同等のユーザビリティを維持している。
関連論文リスト
- Theoretical Insights in Model Inversion Robustness and Conditional Entropy Maximization for Collaborative Inference Systems [89.35169042718739]
協調推論により、クラウドサーバに機密データを公開することなく、エンドユーザは強力なディープラーニングモデルを活用することができる。
近年の研究では、これらの中間機能は、情報が漏洩し、生データをモデル反転攻撃(MIA)によって再構築できるため、プライバシーを十分に保持できないことが判明している。
この研究はまず、与えられた中間特徴の入力の条件エントロピーが、任意のMIAの下での再構成平均二乗誤差(MSE)の保証された下界を与えることを理論的に証明する。
そして、ガウス混合推定に基づいて、この条件付きエントロピーを有界化するための微分可能かつ可解な尺度を導出し、逆ロバスト性を高める条件付きエントロピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-01T07:15:21Z) - Preventing Non-intrusive Load Monitoring Privacy Invasion: A Precise Adversarial Attack Scheme for Networked Smart Meters [99.90150979732641]
本稿では,敵攻撃に基づく革新的な手法を提案する。
このスキームは、NILMモデルがアプライアンスレベルのプライバシに違反するのを効果的に防ぎ、ユーザの正確な請求計算を確実にする。
提案手法はトランスファービリティを示し,他の様々なNILMモデルに適用可能な1つのターゲットモデルから発生する摂動信号を生成する。
論文 参考訳(メタデータ) (2024-12-22T07:06:46Z) - SUMI-IFL: An Information-Theoretic Framework for Image Forgery Localization with Sufficiency and Minimality Constraints [66.85363924364628]
イメージフォージェリーローカライゼーション (IFL) は, 改ざん画像誤用を防止し, 社会安全を守るための重要な技術である。
本稿では,情報理論IFL フレームワーク SUMI-IFL について紹介する。
論文 参考訳(メタデータ) (2024-12-13T09:08:02Z) - Fed-Credit: Robust Federated Learning with Credibility Management [18.349127735378048]
Federated Learning(FL)は、分散デバイスやデータソースのモデルトレーニングを可能にする、新興の機械学習アプローチである。
我々は、Fed-Creditと呼ばれる信頼性管理手法に基づく堅牢なFLアプローチを提案する。
その結果、比較的低い計算複雑性を維持しながら、敵攻撃に対する精度とレジリエンスが向上した。
論文 参考訳(メタデータ) (2024-05-20T03:35:13Z) - Center-Based Relaxed Learning Against Membership Inference Attacks [3.301728339780329]
我々は,Central-based relaxed learning (CRL)と呼ばれるアーキテクチャに依存しない新しい学習パラダイムを提案する。
CRLは任意の分類モデルに適応し、モデル一般化可能性の損失を最小限に抑え、プライバシ保護を提供する。
モデルキャパシティやデータコストを必要とせずに、このアプローチが同等のパフォーマンスを示すことを実証的に示しています。
論文 参考訳(メタデータ) (2024-04-26T19:41:08Z) - Enhancing Security in Federated Learning through Adaptive
Consensus-Based Model Update Validation [2.28438857884398]
本稿では,ラベルフリップ攻撃に対して,FL(Federated Learning)システムを構築するための高度なアプローチを提案する。
本稿では,適応的しきい値設定機構と統合されたコンセンサスに基づく検証プロセスを提案する。
以上の結果から,FLシステムのレジリエンスを高め,ラベルフリップ攻撃の顕著な緩和効果が示唆された。
論文 参考訳(メタデータ) (2024-03-05T20:54:56Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Distributional Shift-Aware Off-Policy Interval Estimation: A Unified
Error Quantification Framework [8.572441599469597]
本研究では、無限水平マルコフ決定過程の文脈における高信頼オフ政治評価について検討する。
目的は、未知の行動ポリシーから事前に収集されたオフラインデータのみを用いて、対象の政策値に対する信頼区間(CI)を確立することである。
提案アルゴリズムは, 非線形関数近似設定においても, サンプル効率, 誤差ローバスト, 既知収束性を示す。
論文 参考訳(メタデータ) (2023-09-23T06:35:44Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - PATROL: Privacy-Oriented Pruning for Collaborative Inference Against
Model Inversion Attacks [15.257413246220032]
協調推論は、リソース制約されたエッジデバイスが最先端のディープニューラルネットワーク(DNN)を使用して推論を実行できるようにする、有望なソリューションである。
近年の研究では、モデルインバージョンアタック(MIA)が中間結果から入力データを再構築し、協調推論に深刻なプライバシー上の懸念を呈している。
本稿では、プライバシ指向のプルーニングを開発し、協調推論のプライバシ、効率、実用性をバランスさせる、PATROLと呼ばれる実行可能なソリューションを提供する。
論文 参考訳(メタデータ) (2023-07-20T16:09:07Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - FeDiSa: A Semi-asynchronous Federated Learning Framework for Power
System Fault and Cyberattack Discrimination [1.0621485365427565]
本稿では,電力系統故障とサイバーアタック識別のための半非同期フェデレーション学習フレームワークFeDiSaを提案する。
産業用制御システムデータセットを用いた提案フレームワークの実験により,データ機密性を維持しつつ,通信遅延やストラグラーの悪影響を最小限に抑えながら,攻撃検出精度が向上した。
論文 参考訳(メタデータ) (2023-03-28T13:34:38Z) - FedDef: Defense Against Gradient Leakage in Federated Learning-based
Network Intrusion Detection Systems [15.39058389031301]
FLベースのNIDS向けに設計された2つのプライバシ評価指標を提案する。
提案するFedDefは,理論的保証を備えた新しい最適化型入力摂動防御戦略である。
4つのデータセットに対する4つの既存の防御を実験的に評価し、プライバシ保護の観点から、我々の防衛がすべてのベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2022-10-08T15:23:30Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。