論文の概要: Information Sifting Funnel: Privacy-preserving Collaborative Inference Against Model Inversion Attacks
- arxiv url: http://arxiv.org/abs/2501.00824v2
- Date: Thu, 16 Jan 2025 02:38:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 21:49:09.112217
- Title: Information Sifting Funnel: Privacy-preserving Collaborative Inference Against Model Inversion Attacks
- Title(参考訳): Information Sifting Funnel: モデル反転攻撃に対するプライバシ保護協調推論
- Authors: Rongke Liu,
- Abstract要約: ニューラルネットワークと推論タスクの複雑さは、リソース制約されたエッジデバイスに重大な課題をもたらす。
コラボレーション推論は、エッジデバイスに浅い特徴抽出を割り当て、さらなる推論のために機能をクラウドにオフロードすることで、これを緩和する。
協調推論のためのプライバシー保護フレームワークSiftFunnelを提案する。
- 参考スコア(独自算出の注目度): 9.092229145160763
- License:
- Abstract: The complexity of neural networks and inference tasks, coupled with demands for computational efficiency and real-time feedback, poses significant challenges for resource-constrained edge devices. Collaborative inference mitigates this by assigning shallow feature extraction to edge devices and offloading features to the cloud for further inference, reducing computational load. However, transmitted features remain susceptible to model inversion attacks (MIAs), which can reconstruct original input data. Current defenses, such as perturbation and information bottleneck techniques, offer explainable protection but face limitations, including the lack of standardized criteria for assessing MIA difficulty, challenges in mutual information estimation, and trade-offs among usability, privacy, and deployability. To address these challenges, we introduce the first criterion to evaluate MIA difficulty in collaborative inference, supported by theoretical analysis of existing attacks and defenses, validated using experiments with the Mutual Information Neural Estimator (MINE). Based on these findings, we propose SiftFunnel, a privacy-preserving framework for collaborative inference. The edge model is trained with linear and non-linear correlation constraints to reduce redundant information in transmitted features, enhancing privacy protection. Label smoothing and a cloud-based upsampling module are added to balance usability and privacy. To improve deployability, the edge model incorporates a funnel-shaped structure and attention mechanisms, preserving both privacy and usability. Extensive experiments demonstrate that SiftFunnel outperforms state-of-the-art defenses against MIAs, achieving superior privacy protection with less than 3% accuracy loss and striking an optimal balance among usability, privacy, and practicality.
- Abstract(参考訳): ニューラルネットワークと推論タスクの複雑さは、計算効率とリアルタイムフィードバックの要求と相まって、リソース制約されたエッジデバイスに重大な課題をもたらす。
コラボレーション推論は、エッジデバイスに浅い特徴抽出を割り当て、さらなる推論のために機能をクラウドにオフロードすることでこれを緩和し、計算負荷を低減します。
しかし、送信された特徴は、元の入力データを再構成できるモデル逆攻撃(MIA)の影響を受けやすいままである。
摂動や情報ボトルネック技術といった現在の防衛は、MIAの難易度を評価するための標準化された基準の欠如、相互情報推定の課題、ユーザビリティ、プライバシ、デプロイ可能性間のトレードオフなど、説明可能な保護を提供するが、制限に直面している。
これらの課題に対処するために、MINE(Mutual Information Neural Estimator)を用いた実験を用いて、既存の攻撃と防御の理論的解析によって支援された協調推論におけるMIAの難しさを評価するための最初の基準を導入する。
これらの知見に基づいて,協調推論のためのプライバシー保護フレームワークSiftFunnelを提案する。
エッジモデルは、送信された特徴の冗長な情報を低減し、プライバシー保護を強化するために、線形および非線形の相関制約で訓練される。
ユーザビリティとプライバシのバランスをとるために,ラベルスムーシングとクラウドベースのアップサンプリングモジュールが追加されている。
デプロイ性を改善するため、エッジモデルは、プライバシとユーザビリティの両方を保存するために、ファンネル型の構造とアテンションメカニズムを取り入れている。
大規模な実験では、SiftFunnelがMIAに対する最先端の防御を上回り、3%未満の精度で優れたプライバシ保護を達成し、ユーザビリティ、プライバシ、実用性の最適なバランスを達成している。
関連論文リスト
- Privacy-Preserving Hybrid Ensemble Model for Network Anomaly Detection: Balancing Security and Data Protection [6.5920909061458355]
本稿では,検出精度とデータ保護の両方に対処するために,プライバシー保護技術を組み込んだハイブリッドアンサンブルモデルを提案する。
我々のモデルは、K-Nearest Neighbors(KNN)、SVM(Support Vector Machines)、XGBoost(XGBoost)、Artificial Neural Networks(ANN)など、いくつかの機械学習アルゴリズムの長所を組み合わせる。
論文 参考訳(メタデータ) (2025-02-13T06:33:16Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [33.267664801299354]
フェデレートラーニング(FL)による分散プライベートデータに基づく機械学習モデルのトレーニングは、コミュニケーション効率とプライバシ保護という2つの大きな課題を提起する。
本稿では,CEPAM(Communication-Efficient and Privacy-Adaptable Mechanism)と呼ばれる新しい手法を導入し,両目的を同時に達成する。
ユーザプライバシ,グローバルユーティリティ,CEPAMの送信速度のトレードオフを,差分プライバシーと圧縮によるFLの適切なメトリクスを定義することによって分析する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - Preventing Non-intrusive Load Monitoring Privacy Invasion: A Precise Adversarial Attack Scheme for Networked Smart Meters [99.90150979732641]
本稿では,敵攻撃に基づく革新的な手法を提案する。
このスキームは、NILMモデルがアプライアンスレベルのプライバシに違反するのを効果的に防ぎ、ユーザの正確な請求計算を確実にする。
提案手法はトランスファービリティを示し,他の様々なNILMモデルに適用可能な1つのターゲットモデルから発生する摂動信号を生成する。
論文 参考訳(メタデータ) (2024-12-22T07:06:46Z) - SUMI-IFL: An Information-Theoretic Framework for Image Forgery Localization with Sufficiency and Minimality Constraints [66.85363924364628]
イメージフォージェリーローカライゼーション (IFL) は, 改ざん画像誤用を防止し, 社会安全を守るための重要な技術である。
本稿では,情報理論IFL フレームワーク SUMI-IFL について紹介する。
論文 参考訳(メタデータ) (2024-12-13T09:08:02Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - FeDiSa: A Semi-asynchronous Federated Learning Framework for Power
System Fault and Cyberattack Discrimination [1.0621485365427565]
本稿では,電力系統故障とサイバーアタック識別のための半非同期フェデレーション学習フレームワークFeDiSaを提案する。
産業用制御システムデータセットを用いた提案フレームワークの実験により,データ機密性を維持しつつ,通信遅延やストラグラーの悪影響を最小限に抑えながら,攻撃検出精度が向上した。
論文 参考訳(メタデータ) (2023-03-28T13:34:38Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。