論文の概要: Network Structures as an Attack Surface: Topology-Based Privacy Leakage in Federated Learning
- arxiv url: http://arxiv.org/abs/2506.19260v1
- Date: Tue, 24 Jun 2025 02:42:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.448311
- Title: Network Structures as an Attack Surface: Topology-Based Privacy Leakage in Federated Learning
- Title(参考訳): 攻撃面としてのネットワーク構造:フェデレートラーニングにおけるトポロジに基づくプライバシリーク
- Authors: Murtaza Rangwala, Richard O. Sinnott, Rajkumar Buyya,
- Abstract要約: 我々は、現実的な敵の知識シナリオにまたがって、トポロジに基づくプライバシリークの包括的分析を行う。
異なる構造知識を持つ敵は、強い差分プライバシー保証の下でも、機密性の高いデータ配信パターンを推測できる。
- 参考スコア(独自算出の注目度): 22.97190267309304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning systems increasingly rely on diverse network topologies to address scalability and organizational constraints. While existing privacy research focuses on gradient-based attacks, the privacy implications of network topology knowledge remain critically understudied. We conduct the first comprehensive analysis of topology-based privacy leakage across realistic adversarial knowledge scenarios, demonstrating that adversaries with varying degrees of structural knowledge can infer sensitive data distribution patterns even under strong differential privacy guarantees. Through systematic evaluation of 4,720 attack instances, we analyze six distinct adversarial knowledge scenarios: complete topology knowledge and five partial knowledge configurations reflecting real-world deployment constraints. We propose three complementary attack vectors: communication pattern analysis, parameter magnitude profiling, and structural position correlation, achieving success rates of 84.1%, 65.0%, and 47.2% under complete knowledge conditions. Critically, we find that 80% of realistic partial knowledge scenarios maintain attack effectiveness above security thresholds, with certain partial knowledge configurations achieving performance superior to the baseline complete knowledge scenario. To address these vulnerabilities, we propose and empirically validate structural noise injection as a complementary defense mechanism across 808 configurations, demonstrating up to 51.4% additional attack reduction when properly layered with existing privacy techniques. These results establish that network topology represents a fundamental privacy vulnerability in federated learning systems while providing practical pathways for mitigation through topology-aware defense mechanisms.
- Abstract(参考訳): フェデレートされた学習システムは、スケーラビリティと組織の制約に対処するために、さまざまなネットワークトポロジに依存している。
既存のプライバシー研究は、勾配に基づく攻撃に焦点を当てているが、ネットワークトポロジに関する知識のプライバシーへの影響は、いまだに重要視されている。
我々は、現実的な敵の知識シナリオにまたがるトポロジに基づくプライバシリークを初めて包括的に分析し、強力な差分プライバシー保証の下でも、様々な構造的知識を持つ敵が機密データ配信パターンを推測できることを実証した。
4,720件の攻撃事例を体系的に評価することにより,実世界の展開制約を反映した完全なトポロジ知識と5つの部分的知識構成の6つの相反する知識シナリオを分析した。
本稿では,コミュニケーションパターン解析,パラメータサイズプロファイリング,構造位置相関の3つの相補的攻撃ベクトルを提案し,その成功率は84.1%,65.0%,47.2%である。
批判的に、現実的な部分的知識シナリオの80%は、セキュリティ閾値以上の攻撃効果を維持しており、特定の部分的知識構成は、ベースラインの完全な知識シナリオよりも優れたパフォーマンスを達成する。
これらの脆弱性に対処するため,808個の構成にまたがる補完的な防御機構として,構造ノイズ注入を提案し,実証的に検証した。
これらの結果から,ネットワークトポロジは,トポロジを意識した防御機構を通じて緩和するための実践的な経路を提供しながら,フェデレーション学習システムにおける基本的なプライバシの脆弱性であることが明らかとなった。
関連論文リスト
- Deep Learning Models for Robust Facial Liveness Detection [56.08694048252482]
本研究では,現代のアンチスプーフィング手法の欠陥に対処する新しい深層学習モデルを用いて,ロバストな解を提案する。
テクスチャ解析と実際の人間の特性に関連する反射特性を革新的に統合することにより、我々のモデルは、顕著な精度でレプリカと真の存在を区別する。
論文 参考訳(メタデータ) (2025-08-12T17:19:20Z) - From Models to Network Topologies: A Topology Inference Attack in Decentralized Federated Learning [7.228253116465784]
この研究は、新しいトポロジ推論攻撃を提案することによって、DFLトポロジの隠れたリスクを明らかにする。
トポロジ推論攻撃の分類を導入し、攻撃者の能力と知識によって分類する。
その結果、各ノードのモデルのみを分析してDFLトポロジを正確に推定できることが示され、DFLシステムにおける重要なプライバシーリスクが浮き彫りにされている。
論文 参考訳(メタデータ) (2025-01-06T16:27:53Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - TopoFR: A Closer Look at Topology Alignment on Face Recognition [58.45515807380505]
PTSAと呼ばれるトポロジカル構造アライメント戦略とSDEという硬質試料マイニング戦略を利用する新しいFRモデルであるTopoFRを提案する。
PTSAは永続ホモロジーを用いて入力空間と潜在空間の位相構造を整列し、構造情報を効果的に保存し、FRモデルの一般化性能を向上させる。
一般的な顔のベンチマーク実験の結果は、最先端の手法よりもTopoFRの方が優れていることを示している。
論文 参考訳(メタデータ) (2024-10-14T14:58:30Z) - GI-NAS: Boosting Gradient Inversion Attacks Through Adaptive Neural Architecture Search [52.27057178618773]
グラディエント・インバージョン・アタック (Gradient Inversion Attacks) は、Federated Learning (FL) システムの伝達勾配を反転させ、ローカルクライアントの機密データを再構築する。
勾配反転法の大半は明示的な事前知識に大きく依存しており、現実的なシナリオでは利用できないことが多い。
本稿では,ニューラルネットワークを適応的に探索し,ニューラルネットワークの背後にある暗黙の先行情報をキャプチャするニューラルアーキテクチャ探索(GI-NAS)を提案する。
論文 参考訳(メタデータ) (2024-05-31T09:29:43Z) - Towards Improving Robustness Against Common Corruptions using Mixture of
Class Specific Experts [10.27974860479791]
本稿では,クラス特化エキスパートアーキテクチャの混合として知られる新しいパラダイムを紹介する。
提案したアーキテクチャは、一般的なニューラルネットワーク構造に関連する脆弱性を軽減することを目的としている。
論文 参考訳(メタデータ) (2023-11-16T20:09:47Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Digital Privacy Under Attack: Challenges and Enablers [11.061112334099597]
我々は、匿名データ、統計集計、プライバシー保護モデルという3つのドメインをターゲットにした攻撃を体系的に分類する。
各カテゴリにおいて、攻撃方法、敵の能力、脆弱性メカニズムを解析する。
我々の分析によると、差分プライバシーは強力な理論的保証を提供するが、新たな攻撃に対する実装上の課題と潜在的な脆弱性に直面している。
論文 参考訳(メタデータ) (2023-02-18T08:34:34Z) - A Deep Learning Approach for Ontology Enrichment from Unstructured Text [2.932750332087746]
既存のWeb上の攻撃、コントロール、アドバイザリの情報脆弱性は、セキュリティ分析を表現し、実行する機会を提供する。
自然言語処理とMLモデルに基づくオントロジーエンリッチメントアルゴリズムは、単語、フレーズ、文における概念の文脈的抽出に問題がある。
大規模なDBデータセットと2.8GBのウィキペディアコーパスとUniversal Sentenceでトレーニングされた双方向LSTMは、ISOベースの情報セキュリティを強化するためにデプロイされる。
論文 参考訳(メタデータ) (2021-12-16T01:32:21Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - FACESEC: A Fine-grained Robustness Evaluation Framework for Face
Recognition Systems [49.577302852655144]
FACESECは、顔認識システムのきめ細かい堅牢性評価のためのフレームワークです。
5つの顔認識システムをクローズド設定とオープン設定の両方で検討します。
ニューラルネットワークの正確な知識は、ブラックボックス攻撃におけるトレーニングデータの知識よりもはるかに重要である。
論文 参考訳(メタデータ) (2021-04-08T23:00:25Z) - OntoEnricher: A Deep Learning Approach for Ontology Enrichment from
Unstructured Text [2.707154152696381]
Web上で利用可能な脆弱性、コントロール、アドバイザリに関する既存の情報は、知識を表現し、関心事の一部を緩和するために分析を行う機会を提供する。
これは情報セキュリティの動的かつ自動化された強化を必要とする。
自然言語処理とMLモデルに基づく既存のオントロジーエンリッチメントアルゴリズムは、単語、フレーズ、文における概念の文脈的抽出に問題がある。
論文 参考訳(メタデータ) (2021-02-08T09:43:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。