論文の概要: Network Structures as an Attack Surface: Topology-Based Privacy Leakage in Federated Learning
- arxiv url: http://arxiv.org/abs/2506.19260v1
- Date: Tue, 24 Jun 2025 02:42:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.448311
- Title: Network Structures as an Attack Surface: Topology-Based Privacy Leakage in Federated Learning
- Title(参考訳): 攻撃面としてのネットワーク構造:フェデレートラーニングにおけるトポロジに基づくプライバシリーク
- Authors: Murtaza Rangwala, Richard O. Sinnott, Rajkumar Buyya,
- Abstract要約: 我々は、現実的な敵の知識シナリオにまたがって、トポロジに基づくプライバシリークの包括的分析を行う。
異なる構造知識を持つ敵は、強い差分プライバシー保証の下でも、機密性の高いデータ配信パターンを推測できる。
- 参考スコア(独自算出の注目度): 22.97190267309304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning systems increasingly rely on diverse network topologies to address scalability and organizational constraints. While existing privacy research focuses on gradient-based attacks, the privacy implications of network topology knowledge remain critically understudied. We conduct the first comprehensive analysis of topology-based privacy leakage across realistic adversarial knowledge scenarios, demonstrating that adversaries with varying degrees of structural knowledge can infer sensitive data distribution patterns even under strong differential privacy guarantees. Through systematic evaluation of 4,720 attack instances, we analyze six distinct adversarial knowledge scenarios: complete topology knowledge and five partial knowledge configurations reflecting real-world deployment constraints. We propose three complementary attack vectors: communication pattern analysis, parameter magnitude profiling, and structural position correlation, achieving success rates of 84.1%, 65.0%, and 47.2% under complete knowledge conditions. Critically, we find that 80% of realistic partial knowledge scenarios maintain attack effectiveness above security thresholds, with certain partial knowledge configurations achieving performance superior to the baseline complete knowledge scenario. To address these vulnerabilities, we propose and empirically validate structural noise injection as a complementary defense mechanism across 808 configurations, demonstrating up to 51.4% additional attack reduction when properly layered with existing privacy techniques. These results establish that network topology represents a fundamental privacy vulnerability in federated learning systems while providing practical pathways for mitigation through topology-aware defense mechanisms.
- Abstract(参考訳): フェデレートされた学習システムは、スケーラビリティと組織の制約に対処するために、さまざまなネットワークトポロジに依存している。
既存のプライバシー研究は、勾配に基づく攻撃に焦点を当てているが、ネットワークトポロジに関する知識のプライバシーへの影響は、いまだに重要視されている。
我々は、現実的な敵の知識シナリオにまたがるトポロジに基づくプライバシリークを初めて包括的に分析し、強力な差分プライバシー保証の下でも、様々な構造的知識を持つ敵が機密データ配信パターンを推測できることを実証した。
4,720件の攻撃事例を体系的に評価することにより,実世界の展開制約を反映した完全なトポロジ知識と5つの部分的知識構成の6つの相反する知識シナリオを分析した。
本稿では,コミュニケーションパターン解析,パラメータサイズプロファイリング,構造位置相関の3つの相補的攻撃ベクトルを提案し,その成功率は84.1%,65.0%,47.2%である。
批判的に、現実的な部分的知識シナリオの80%は、セキュリティ閾値以上の攻撃効果を維持しており、特定の部分的知識構成は、ベースラインの完全な知識シナリオよりも優れたパフォーマンスを達成する。
これらの脆弱性に対処するため,808個の構成にまたがる補完的な防御機構として,構造ノイズ注入を提案し,実証的に検証した。
これらの結果から,ネットワークトポロジは,トポロジを意識した防御機構を通じて緩和するための実践的な経路を提供しながら,フェデレーション学習システムにおける基本的なプライバシの脆弱性であることが明らかとなった。
関連論文リスト
- From Models to Network Topologies: A Topology Inference Attack in Decentralized Federated Learning [7.228253116465784]
この研究は、新しいトポロジ推論攻撃を提案することによって、DFLトポロジの隠れたリスクを明らかにする。
トポロジ推論攻撃の分類を導入し、攻撃者の能力と知識によって分類する。
その結果、各ノードのモデルのみを分析してDFLトポロジを正確に推定できることが示され、DFLシステムにおける重要なプライバシーリスクが浮き彫りにされている。
論文 参考訳(メタデータ) (2025-01-06T16:27:53Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Towards Improving Robustness Against Common Corruptions using Mixture of
Class Specific Experts [10.27974860479791]
本稿では,クラス特化エキスパートアーキテクチャの混合として知られる新しいパラダイムを紹介する。
提案したアーキテクチャは、一般的なニューラルネットワーク構造に関連する脆弱性を軽減することを目的としている。
論文 参考訳(メタデータ) (2023-11-16T20:09:47Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - OntoEnricher: A Deep Learning Approach for Ontology Enrichment from
Unstructured Text [2.707154152696381]
Web上で利用可能な脆弱性、コントロール、アドバイザリに関する既存の情報は、知識を表現し、関心事の一部を緩和するために分析を行う機会を提供する。
これは情報セキュリティの動的かつ自動化された強化を必要とする。
自然言語処理とMLモデルに基づく既存のオントロジーエンリッチメントアルゴリズムは、単語、フレーズ、文における概念の文脈的抽出に問題がある。
論文 参考訳(メタデータ) (2021-02-08T09:43:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。