論文の概要: ProDiGy: Proximity- and Dissimilarity-Based Byzantine-Robust Federated Learning
- arxiv url: http://arxiv.org/abs/2509.09534v1
- Date: Thu, 11 Sep 2025 15:25:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.442588
- Title: ProDiGy: Proximity- and Dissimilarity-Based Byzantine-Robust Federated Learning
- Title(参考訳): ProDiGy: 近さと相違性に基づくビザンチン・ローバスト・フェデレーションラーニング
- Authors: Sena Ergisi, Luis Maßny, Rawad Bitar,
- Abstract要約: フェデレートラーニング(FL)は分散ラーニングのパラダイムとして広く研究されている。
本稿では, ProDiGy と呼ばれる新しいビザンチンロバストFLアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 8.763134188675718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) emerged as a widely studied paradigm for distributed learning. Despite its many advantages, FL remains vulnerable to adversarial attacks, especially under data heterogeneity. We propose a new Byzantine-robust FL algorithm called ProDiGy. The key novelty lies in evaluating the client gradients using a joint dual scoring system based on the gradients' proximity and dissimilarity. We demonstrate through extensive numerical experiments that ProDiGy outperforms existing defenses in various scenarios. In particular, when the clients' data do not follow an IID distribution, while other defense mechanisms fail, ProDiGy maintains strong defense capabilities and model accuracy. These findings highlight the effectiveness of a dual perspective approach that promotes natural similarity among honest clients while detecting suspicious uniformity as a potential indicator of an attack.
- Abstract(参考訳): フェデレートラーニング(FL)は分散ラーニングのパラダイムとして広く研究されている。
多くの利点があるにもかかわらず、FLは敵対的攻撃、特にデータの不均一性において脆弱である。
本稿では, ProDiGy と呼ばれる新しいビザンチンロバストFLアルゴリズムを提案する。
鍵となる新規性は、勾配の近接性と相似性に基づく連立二重スコアシステムを用いてクライアント勾配を評価することである。
ProDiGyは様々なシナリオにおいて既存の防御性能より優れていることを示す。
特に、クライアントのデータがIDD分布に従わない場合、他の防御メカニズムが失敗すると、ProDiGyは強力な防御能力とモデルの精度を維持します。
これらの知見は、攻撃の潜在的指標として疑わしい均一性を検知しながら、正直なクライアント間の自然な類似性を促進するデュアルパースペクティブアプローチの有効性を強調した。
関連論文リスト
- FLAegis: A Two-Layer Defense Framework for Federated Learning Against Poisoning Attacks [2.6599014990168843]
フェデレートラーニング(FL)は、機械学習(ML)モデルを分散的にトレーニングするための強力なテクニックとなっている。
ビザンティンの顧客として知られる第三者は、偽モデルのアップデートを提出することでトレーニングプロセスに悪影響を及ぼす可能性がある。
本研究では、ビザンティンのクライアントを特定し、FLシステムの堅牢性を改善するために設計された2段階の防御フレームワークであるFLAegisを紹介する。
論文 参考訳(メタデータ) (2025-08-26T07:09:15Z) - Defending the Edge: Representative-Attention for Mitigating Backdoor Attacks in Federated Learning [7.808916974942399]
不均一エッジデバイスは、多種多様で非独立で、同一に分散された(非IID)データを生成する。
本稿では, 悪意のあるクライアントと良識を区別するための, FeRA という, 表現力に基づく防衛機構を提案する。
本評価では,エッジデバイスに典型的な非IIDデータ分散に挑戦するなど,さまざまなFLシナリオにおけるFeRAの堅牢性を示す。
論文 参考訳(メタデータ) (2025-05-15T13:44:32Z) - Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Adversarial Robustness under Long-Tailed Distribution [93.50792075460336]
敵対的ロバスト性はディープネットワークの脆弱性と本質的特徴を明らかにすることで近年広く研究されている。
本研究では,長尾分布下における敵対的脆弱性と防御について検討する。
我々は、スケール不変とデータ再分散という2つの専用モジュールからなるクリーンで効果的なフレームワークであるRoBalを提案する。
論文 参考訳(メタデータ) (2021-04-06T17:53:08Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。