論文の概要: From Models to Network Topologies: A Topology Inference Attack in Decentralized Federated Learning
- arxiv url: http://arxiv.org/abs/2501.03119v1
- Date: Mon, 06 Jan 2025 16:27:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:08:37.081323
- Title: From Models to Network Topologies: A Topology Inference Attack in Decentralized Federated Learning
- Title(参考訳): モデルからネットワークトポロジへ:分散型フェデレーション学習におけるトポロジ推論攻撃
- Authors: Chao Feng, Yuanzhe Gao, Alberto Huertas Celdran, Gerome Bovet, Burkhard Stiller,
- Abstract要約: 本研究では,モデル行動のみに基づく分散学習(DFL)システムのオーバーレイトポロジを推定できる可能性について検討する。
トポロジ推論攻撃の分類法が提案され、攻撃者の能力と知識によって分類される。
実験により、個々のノードの公開モデルのみを分析することで、DFLトポロジを正確に推測できることが示されている。
- 参考スコア(独自算出の注目度): 7.228253116465784
- License:
- Abstract: Federated Learning (FL) is widely recognized as a privacy-preserving machine learning paradigm due to its model-sharing mechanism that avoids direct data exchange. However, model training inevitably leaves exploitable traces that can be used to infer sensitive information. In Decentralized FL (DFL), the overlay topology significantly influences its models' convergence, robustness, and security. This study explores the feasibility of inferring the overlay topology of DFL systems based solely on model behavior, introducing a novel Topology Inference Attack. A taxonomy of topology inference attacks is proposed, categorizing them by the attacker's capabilities and knowledge. Practical attack strategies are developed for different scenarios, and quantitative experiments are conducted to identify key factors influencing the attack effectiveness. Experimental results demonstrate that analyzing only the public models of individual nodes can accurately infer the DFL topology, underscoring the risk of sensitive information leakage in DFL systems. This finding offers valuable insights for improving privacy preservation in decentralized learning environments.
- Abstract(参考訳): Federated Learning(FL)は、直接データ交換を回避するモデル共有メカニズムのため、プライバシ保護機械学習パラダイムとして広く認識されている。
しかし、モデルトレーニングは必然的に、機密情報を推測するのに使える悪用可能な痕跡を残します。
Decentralized FL (DFL) では、オーバーレイトポロジはモデルの収束、堅牢性、セキュリティに大きく影響する。
本研究では,モデル行動のみに基づくDFLシステムのオーバーレイトポロジを推定できる可能性について検討し,新しいトポロジ推論攻撃を導入した。
トポロジ推論攻撃の分類法が提案され、攻撃者の能力と知識によって分類される。
様々なシナリオに対して実践的な攻撃戦略が開発され、攻撃の有効性に影響を及ぼす重要な要因を特定するための定量的実験が実施されている。
実験の結果、個々のノードの公開モデルのみを解析することで、DFLのトポロジーを正確に推測することができ、DFLシステムの機密情報漏洩のリスクを裏付けることが示された。
この発見は、分散学習環境におけるプライバシー保護を改善するための貴重な洞察を提供する。
関連論文リスト
- GANcrop: A Contrastive Defense Against Backdoor Attacks in Federated Learning [1.9632700283749582]
本稿では,GANcrop という,協調学習におけるバックドア攻撃に対する防御機構について紹介する。
実験的には、特に非IIDシナリオにおいて、ガンクロップはバックドア攻撃に対して効果的に保護されていることが示されている。
論文 参考訳(メタデータ) (2024-05-31T09:33:16Z) - Enhancing Security in Federated Learning through Adaptive
Consensus-Based Model Update Validation [2.28438857884398]
本稿では,ラベルフリップ攻撃に対して,FL(Federated Learning)システムを構築するための高度なアプローチを提案する。
本稿では,適応的しきい値設定機構と統合されたコンセンサスに基づく検証プロセスを提案する。
以上の結果から,FLシステムのレジリエンスを高め,ラベルフリップ攻撃の顕著な緩和効果が示唆された。
論文 参考訳(メタデータ) (2024-03-05T20:54:56Z) - FSAR: Federated Skeleton-based Action Recognition with Adaptive Topology
Structure and Knowledge Distillation [23.0771949978506]
既存の骨格に基づく行動認識手法は、典型的には集中学習パラダイムに従っており、人間関連のビデオを公開する際にプライバシー上の懸念を生じさせる。
我々は,局所的な機密データにアクセスせずにグローバルに一般化されたモデルを構築することのできる,新しいフェデレート・骨格に基づく行動認識(FSAR)パラダイムを導入する。
論文 参考訳(メタデータ) (2023-06-19T16:18:14Z) - Federated Deep Learning for Intrusion Detection in IoT Networks [1.3097853961043058]
AIベースの侵入検知システム(IDS)を分散IoTシステムに実装する一般的なアプローチは、中央集権的な方法である。
このアプローチはデータのプライバシを侵害し、IDSのスケーラビリティを禁止します。
我々は、実世界の実験代表を設計し、FLベースのIDSの性能を評価する。
論文 参考訳(メタデータ) (2023-06-05T09:08:24Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。