論文の概要: How Breakable Is Privacy: Probing and Resisting Model Inversion Attacks in Collaborative Inference
- arxiv url: http://arxiv.org/abs/2501.00824v3
- Date: Thu, 06 Mar 2025 06:30:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 19:22:35.088196
- Title: How Breakable Is Privacy: Probing and Resisting Model Inversion Attacks in Collaborative Inference
- Title(参考訳): プライバシーの破滅:協力的推論におけるモデルインバージョンアタックの検証と登録
- Authors: Rongke Liu,
- Abstract要約: 協調推論は、中間機能をクラウドモデルに伝達することでエッジデバイスの計算効率を向上させる。
モデル逆攻撃(MIA)の評価基準は確立されていない。
ユーザビリティを維持しつつMIAに抵抗するプライバシー保護フレームワークであるSiftFunnelを提案する。
- 参考スコア(独自算出の注目度): 9.092229145160763
- License:
- Abstract: Collaborative inference (CI) improves computational efficiency for edge devices by transmitting intermediate features to cloud models. However, this process inevitably exposes feature representations to model inversion attacks (MIAs), enabling unauthorized data reconstruction. Despite extensive research, there is no established criterion for assessing MIA effectiveness, leaving a fundamental question unanswered: What factors truly and verifiably determine the attack's success in CI? Moreover, existing defenses lack the theoretical foundation described above, making it challenging to regulate feature information effectively while ensuring privacy and minimizing computational overhead. These shortcomings introduce three key challenges: theoretical research, methodological design, and practical constraint. To overcome these limitations, we establish the first theoretical criterion formula to assess MIA difficulty in CI, identifying mutual information, entropy, and effective information volume as key influencing factors. The validity of this criterion is demonstrated by using the Mutual Information Neural Estimator (MINE). Building on this insight, we propose SiftFunnel, a privacy-preserving framework to resist MIA while maintaining usability. Specifically, we incorporate linear and non-linear correlation constraints alongside label smoothing to suppress redundant information transmission, effectively balancing privacy and usability. To enhance deployability, the edge model adopts a funnel-shaped structure with attention mechanisms, strengthening privacy while reducing computational and storage burdens. Experimental results show that SiftFunnel outperforms state-of-the-art defenses, achieving strong privacy protection with an average accuracy loss of around 3\% and an optimal trade-off between usability, privacy, and practicality.
- Abstract(参考訳): 協調推論(CI)は、中間機能をクラウドモデルに伝達することでエッジデバイスの計算効率を向上させる。
しかし、このプロセスは必然的に特徴表現をモデル逆攻撃(MIAs)に公開し、不正なデータ再構成を可能にする。
広範な研究にもかかわらず、MIAの有効性を評価するための確立された基準は存在せず、根本的な疑問は未解決のままである。
さらに、既存の防衛は上記の理論基盤を欠いているため、プライバシーを確保し、計算オーバーヘッドを最小限に抑えつつ、特徴情報を効果的に規制することは困難である。
これらの欠点は理論研究、方法論設計、実践的制約という3つの重要な課題をもたらす。
これらの制限を克服するため、我々はCIにおけるMIAの難易度を評価し、相互情報、エントロピー、有効情報のボリュームを重要な要因として識別する最初の理論的基準式を確立した。
この基準の有効性は、MINE(Mutual Information Neural Estimator)を用いて示される。
この知見に基づいて、ユーザビリティを維持しつつMIAに抵抗するプライバシー保護フレームワークSiftFunnelを提案する。
具体的には、ラベルの平滑化とともに線形および非線形の相関制約を組み込んで冗長な情報伝達を抑え、プライバシーとユーザビリティを効果的にバランスさせる。
デプロイ性を高めるため、エッジモデルは、注意機構を備えたファンネル型の構造を採用し、計算やストレージの負担を軽減しつつ、プライバシを強化する。
実験結果から、SiftFunnelは最先端の防御よりも優れており、平均精度が約3倍の強いプライバシー保護と、ユーザビリティ、プライバシ、実用性の間の最適なトレードオフを実現していることがわかった。
関連論文リスト
- Privacy-Preserving Hybrid Ensemble Model for Network Anomaly Detection: Balancing Security and Data Protection [6.5920909061458355]
本稿では,検出精度とデータ保護の両方に対処するために,プライバシー保護技術を組み込んだハイブリッドアンサンブルモデルを提案する。
我々のモデルは、K-Nearest Neighbors(KNN)、SVM(Support Vector Machines)、XGBoost(XGBoost)、Artificial Neural Networks(ANN)など、いくつかの機械学習アルゴリズムの長所を組み合わせる。
論文 参考訳(メタデータ) (2025-02-13T06:33:16Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [33.267664801299354]
フェデレートラーニング(FL)による分散プライベートデータに基づく機械学習モデルのトレーニングは、コミュニケーション効率とプライバシ保護という2つの大きな課題を提起する。
本稿では,CEPAM(Communication-Efficient and Privacy-Adaptable Mechanism)と呼ばれる新しい手法を導入し,両目的を同時に達成する。
ユーザプライバシ,グローバルユーティリティ,CEPAMの送信速度のトレードオフを,差分プライバシーと圧縮によるFLの適切なメトリクスを定義することによって分析する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - Preventing Non-intrusive Load Monitoring Privacy Invasion: A Precise Adversarial Attack Scheme for Networked Smart Meters [99.90150979732641]
本稿では,敵攻撃に基づく革新的な手法を提案する。
このスキームは、NILMモデルがアプライアンスレベルのプライバシに違反するのを効果的に防ぎ、ユーザの正確な請求計算を確実にする。
提案手法はトランスファービリティを示し,他の様々なNILMモデルに適用可能な1つのターゲットモデルから発生する摂動信号を生成する。
論文 参考訳(メタデータ) (2024-12-22T07:06:46Z) - SUMI-IFL: An Information-Theoretic Framework for Image Forgery Localization with Sufficiency and Minimality Constraints [66.85363924364628]
イメージフォージェリーローカライゼーション (IFL) は, 改ざん画像誤用を防止し, 社会安全を守るための重要な技術である。
本稿では,情報理論IFL フレームワーク SUMI-IFL について紹介する。
論文 参考訳(メタデータ) (2024-12-13T09:08:02Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - FeDiSa: A Semi-asynchronous Federated Learning Framework for Power
System Fault and Cyberattack Discrimination [1.0621485365427565]
本稿では,電力系統故障とサイバーアタック識別のための半非同期フェデレーション学習フレームワークFeDiSaを提案する。
産業用制御システムデータセットを用いた提案フレームワークの実験により,データ機密性を維持しつつ,通信遅延やストラグラーの悪影響を最小限に抑えながら,攻撃検出精度が向上した。
論文 参考訳(メタデータ) (2023-03-28T13:34:38Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。