論文の概要: Information Sifting Funnel: Privacy-preserving Collaborative Inference Against Model Inversion Attacks
- arxiv url: http://arxiv.org/abs/2501.00824v1
- Date: Wed, 01 Jan 2025 13:00:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:13:27.935716
- Title: Information Sifting Funnel: Privacy-preserving Collaborative Inference Against Model Inversion Attacks
- Title(参考訳): Information Sifting Funnel: モデル反転攻撃に対するプライバシ保護協調推論
- Authors: Rongke Liu,
- Abstract要約: ニューラルネットワークと推論タスクの複雑さは、リソース制約されたエッジデバイスに重大な課題をもたらす。
コラボレーション推論は、エッジデバイスに浅い特徴抽出を割り当て、さらなる推論のために機能をクラウドにオフロードすることで、これを緩和する。
協調推論のためのプライバシー保護フレームワークSiftFunnelを提案する。
- 参考スコア(独自算出の注目度): 9.092229145160763
- License:
- Abstract: The complexity of neural networks and inference tasks, coupled with demands for computational efficiency and real-time feedback, poses significant challenges for resource-constrained edge devices. Collaborative inference mitigates this by assigning shallow feature extraction to edge devices and offloading features to the cloud for further inference, reducing computational load. However, transmitted features remain susceptible to model inversion attacks (MIAs), which can reconstruct original input data. Current defenses, such as perturbation and information bottleneck techniques, offer explainable protection but face limitations, including the lack of standardized criteria for assessing MIA difficulty, challenges in mutual information estimation, and trade-offs among usability, privacy, and deployability. To address these challenges, we introduce the first criterion to evaluate MIA difficulty in collaborative inference, supported by theoretical analysis of existing attacks and defenses, validated using experiments with the Mutual Information Neural Estimator (MINE). Based on these findings, we propose SiftFunnel, a privacy-preserving framework for collaborative inference. The edge model is trained with linear and non-linear correlation constraints to reduce redundant information in transmitted features, enhancing privacy protection. Label smoothing and a cloud-based upsampling module are added to balance usability and privacy. To improve deployability, the edge model incorporates a funnel-shaped structure and attention mechanisms, preserving both privacy and usability. Extensive experiments demonstrate that SiftFunnel outperforms state-of-the-art defenses against MIAs, achieving superior privacy protection with less than 3% accuracy loss and striking an optimal balance among usability, privacy, and practicality.
- Abstract(参考訳): ニューラルネットワークと推論タスクの複雑さは、計算効率とリアルタイムフィードバックの要求と相まって、リソース制約されたエッジデバイスに重大な課題をもたらす。
コラボレーション推論は、エッジデバイスに浅い特徴抽出を割り当て、さらなる推論のために機能をクラウドにオフロードすることでこれを緩和し、計算負荷を低減します。
しかし、送信された特徴は、元の入力データを再構成できるモデル逆攻撃(MIA)の影響を受けやすいままである。
摂動や情報ボトルネック技術といった現在の防衛は、MIAの難易度を評価するための標準化された基準の欠如、相互情報推定の課題、ユーザビリティ、プライバシ、デプロイ可能性間のトレードオフなど、説明可能な保護を提供するが、制限に直面している。
これらの課題に対処するために、MINE(Mutual Information Neural Estimator)を用いた実験を用いて、既存の攻撃と防御の理論的解析によって支援された協調推論におけるMIAの難しさを評価するための最初の基準を導入する。
これらの知見に基づいて,協調推論のためのプライバシー保護フレームワークSiftFunnelを提案する。
エッジモデルは、送信された特徴の冗長な情報を低減し、プライバシー保護を強化するために、線形および非線形の相関制約で訓練される。
ユーザビリティとプライバシのバランスをとるために,ラベルスムーシングとクラウドベースのアップサンプリングモジュールが追加されている。
デプロイ性を改善するため、エッジモデルは、プライバシとユーザビリティの両方を保存するために、ファンネル型の構造とアテンションメカニズムを取り入れている。
大規模な実験では、SiftFunnelがMIAに対する最先端の防御を上回り、3%未満の精度で優れたプライバシ保護を達成し、ユーザビリティ、プライバシ、実用性の最適なバランスを達成している。
関連論文リスト
- Data Collaboration Analysis with Orthogonal Basis Alignment [2.928964540437144]
Data Collaboration (DC)フレームワークは、マルチソースデータ融合のためのプライバシ保護ソリューションを提供する。
その強みにもかかわらず、DCフレームワークは、生データのマッピングに使用されるベースを整合させるという理論的課題のために、しばしばパフォーマンスの不安定さに直面する。
本研究は,直流フレームワーク内でのベースアライメントのための厳密な理論基盤を確立することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2024-03-05T08:52:16Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Privacy-Preserving Distributed Learning for Residential Short-Term Load
Forecasting [11.185176107646956]
電力システムの負荷データは、住宅ユーザの日常のルーチンを不注意に明らかにし、彼らの財産のセキュリティにリスクを及ぼす可能性がある。
我々はマルコフスイッチ方式の分散学習フレームワークを導入し、その収束は厳密な理論的解析によって実証される。
実世界の電力系統負荷データを用いたケーススタディにより,提案アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2024-02-02T16:39:08Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - FeDiSa: A Semi-asynchronous Federated Learning Framework for Power
System Fault and Cyberattack Discrimination [1.0621485365427565]
本稿では,電力系統故障とサイバーアタック識別のための半非同期フェデレーション学習フレームワークFeDiSaを提案する。
産業用制御システムデータセットを用いた提案フレームワークの実験により,データ機密性を維持しつつ,通信遅延やストラグラーの悪影響を最小限に抑えながら,攻撃検出精度が向上した。
論文 参考訳(メタデータ) (2023-03-28T13:34:38Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。