論文の概要: FedThief: Harming Others to Benefit Oneself in Self-Centered Federated Learning
- arxiv url: http://arxiv.org/abs/2509.00540v1
- Date: Sat, 30 Aug 2025 15:42:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.275798
- Title: FedThief: Harming Others to Benefit Oneself in Self-Centered Federated Learning
- Title(参考訳): FedThief: 自己中心のフェデレーションラーニングで、他人の利益を損なう
- Authors: Xiangyu Zhang, Mang Ye,
- Abstract要約: 既存の攻撃戦略では、敵が改ざんされたモデルの更新をアップロードして、グローバルモデルのパフォーマンスを低下させる。
我々はFedThiefというフレームワークを提案し、修正されたコンテンツをアップロードすることでグローバルモデルの性能を劣化させる。
同時に、分散認識アンサンブル技術により、プライベートモデルの性能を向上させる。
- 参考スコア(独自算出の注目度): 61.680244936069926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In federated learning, participants' uploaded model updates cannot be directly verified, leaving the system vulnerable to malicious attacks. Existing attack strategies have adversaries upload tampered model updates to degrade the global model's performance. However, attackers also degrade their own private models, gaining no advantage. In real-world scenarios, attackers are driven by self-centered motives: their goal is to gain a competitive advantage by developing a model that outperforms those of other participants, not merely to cause disruption. In this paper, we study a novel Self-Centered Federated Learning (SCFL) attack paradigm, in which attackers not only degrade the performance of the global model through attacks but also enhance their own models within the federated learning process. We propose a framework named FedThief, which degrades the performance of the global model by uploading modified content during the upload stage. At the same time, it enhances the private model's performance through divergence-aware ensemble techniques, where "divergence" quantifies the deviation between private and global models, that integrate global updates and local knowledge. Extensive experiments show that our method effectively degrades the global model performance while allowing the attacker to obtain an ensemble model that significantly outperforms the global model.
- Abstract(参考訳): フェデレートラーニングでは、参加者がアップロードしたモデル更新は直接検証できないため、悪意のある攻撃に対してシステムは脆弱である。
既存の攻撃戦略では、敵が改ざんされたモデルの更新をアップロードして、グローバルモデルのパフォーマンスを低下させる。
しかし、攻撃者は自身のプライベートモデルも格下げし、優位性は得られなかった。
現実のシナリオでは、攻撃者は自己中心のモチベーションによって駆動される。彼らのゴールは、破壊を引き起こすだけでなく、他の参加者よりも優れたモデルを開発することによって、競争上の優位性を得ることである。
本稿では,新たな自己中心型フェデレート学習(SCFL)攻撃パラダイムについて検討し,攻撃によってグローバルモデルの性能を低下させるだけでなく,フェデレート学習プロセス内で自身のモデルを強化する。
我々はFedThiefというフレームワークを提案し、アップロード時に修正されたコンテンツをアップロードすることでグローバルモデルの性能を劣化させる。
同時に、グローバルな更新とローカルな知識を統合するプライベートモデルとグローバルモデルの偏差を定量化する、分散認識アンサンブル技術を通じて、プライベートモデルの性能を向上させる。
大規模な実験により,攻撃者がグローバルモデルよりもはるかに優れたアンサンブルモデルが得られる一方で,本手法はグローバルモデルの性能を効果的に劣化させることが示された。
関連論文リスト
- Model Hijacking Attack in Federated Learning [19.304332176437363]
HijackFLは、フェデレートラーニングにおけるグローバルモデルに対する、第一級のハイジャック攻撃である。
それは、サーバや良心的なクライアントの通知なしに、グローバルモデルが元のタスクとは異なるタスクを実行するように強制することを目的としています。
4つのベンチマークデータセットと3つの人気のあるモデルについて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-04T20:02:07Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - MPAF: Model Poisoning Attacks to Federated Learning based on Fake
Clients [51.973224448076614]
本稿では,MPAF と呼ばれる Fake クライアントをベースとした最初のモデルポジショニング攻撃を提案する。
MPAFは、たとえ古典的な防御とノルムクリッピングが採用されたとしても、グローバルモデルのテスト精度を著しく低下させることができる。
論文 参考訳(メタデータ) (2022-03-16T14:59:40Z) - Turning Federated Learning Systems Into Covert Channels [3.7168491743915646]
フェデレーション・ラーニング(FL)は、エッジクライアント間でモデルトレーニングを分散することで、従来の集中型機械学習を越えている。
本稿では,ステルス通信インフラを実装するために,FLシステムを隠蔽チャネルにすることを目的とした,新たな攻撃モデルを提案する。
論文 参考訳(メタデータ) (2021-04-21T14:32:03Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Dynamic Defense Against Byzantine Poisoning Attacks in Federated
Learning [11.117880929232575]
フェデレート・ラーニングはビザチンによる敵対的な攻撃に弱い。
本稿では,これらのクライアントを動的に破棄する動的集約演算子を提案する。
その結果,集約するクライアントの動的選択により,グローバル学習モデルの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-07-29T18:02:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。