論文の概要: Heterogeneity-Oblivious Robust Federated Learning
- arxiv url: http://arxiv.org/abs/2508.03579v1
- Date: Tue, 05 Aug 2025 15:47:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:56.052033
- Title: Heterogeneity-Oblivious Robust Federated Learning
- Title(参考訳): 不均質なロバストなフェデレーションラーニング
- Authors: Weiyao Zhang, Jinyang Li, Qi Song, Miao Wang, Chungang Lin, Haitong Luo, Xuying Meng, Yujun Zhang,
- Abstract要約: 低ランク適応(LoRA)を中心とした堅牢なフェデレーション学習フレームワークを提案する。
Horusは、堅牢性と正確性の両方において、最先端のベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 26.32889261841124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) remains highly vulnerable to poisoning attacks, especially under real-world hyper-heterogeneity, where clients differ significantly in data distributions, communication capabilities, and model architectures. Such heterogeneity not only undermines the effectiveness of aggregation strategies but also makes attacks more difficult to detect. Furthermore, high-dimensional models expand the attack surface. To address these challenges, we propose Horus, a heterogeneity-oblivious robust FL framework centered on low-rank adaptations (LoRAs). Rather than aggregating full model parameters, Horus inserts LoRAs into empirically stable layers and aggregates only LoRAs to reduce the attack surface.We uncover a key empirical observation that the input projection (LoRA-A) is markedly more stable than the output projection (LoRA-B) under heterogeneity and poisoning. Leveraging this, we design a Heterogeneity-Oblivious Poisoning Score using the features from LoRA-A to filter poisoned clients. For the remaining benign clients, we propose projection-aware aggregation mechanism to preserve collaborative signals while suppressing drifts, which reweights client updates by consistency with the global directions. Extensive experiments across diverse datasets, model architectures, and attacks demonstrate that Horus consistently outperforms state-of-the-art baselines in both robustness and accuracy.
- Abstract(参考訳): フェデレートラーニング(FL)は、特に現実世界のハイパーヘテロジニティーにおいて、クライアントがデータ分散、通信機能、モデルアーキテクチャに大きく異なる、毒性攻撃に対して非常に脆弱なままである。
このような異質性はアグリゲーション戦略の有効性を損なうだけでなく、攻撃を検知しにくくする。
さらに、高次元モデルが攻撃面を拡大する。
これらの課題に対処するために,ローランク適応(LoRA)を中心とした不均一な堅牢なFLフレームワークであるHorusを提案する。
フルモデルパラメータを集約する代わりに、HorusはLoRAsを経験的に安定な層に挿入し、LoRAsのみを集約して攻撃面を減少させる。
これを活用することで、LoRA-Aの機能を利用して、汚染されたクライアントをフィルタリングする、異質なポジショニングスコアを設計する。
残りの良性クライアントに対しては,ドリフトを抑えながら協調的な信号を保存するためのプロジェクション・アウェア・アグリゲーション機構を提案する。
多様なデータセット、モデルアーキテクチャ、アタックにわたる大規模な実験は、Horusが堅牢性と正確性の両方において、最先端のベースラインを一貫して上回っていることを示している。
関連論文リスト
- Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning [54.26807397329468]
この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
論文 参考訳(メタデータ) (2025-07-09T20:09:00Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Secure and Private Federated Learning: Achieving Adversarial Resilience through Robust Aggregation [4.001189641238278]
フェデレートラーニング(FL)は、生データを共有することなく、分散データソース間で協調的な機械学習を可能にする。
FLは、ビザンツのクライアントと呼ばれる悪意のある参加者からの敵の脅威に弱いままである。
本稿では,FLシステムのレジリエンスとプライバシの保証を両立させる新しいアグリゲーション戦略であるAverage-rKrum(ArKrum)を提案する。
論文 参考訳(メタデータ) (2025-05-22T19:01:09Z) - Improving $(α, f)$-Byzantine Resilience in Federated Learning via layerwise aggregation and cosine distance [7.8973037023478785]
フェデレートラーニング(FL)は、分散機械学習におけるデータプライバシの課題に対する潜在的な解決策である。
FLシステムは、悪意のあるノードが破損したモデル更新に寄与するビザンティン攻撃に弱いままである。
本稿では,高次元設定における規則の堅牢性向上を目的とした新しいアグリゲーション手法であるLayerwise Cosine Aggregationを紹介する。
論文 参考訳(メタデータ) (2025-03-27T08:07:39Z) - Adversarial Training for Defense Against Label Poisoning Attacks [53.893792844055106]
ラベル中毒攻撃は機械学習モデルに重大なリスクをもたらす。
本稿では,これらの脅威に対処するために,サポートベクトルマシン(SVM)に基づく新たな対角的防御戦略を提案する。
提案手法は, 様々なモデルアーキテクチャに対応し, カーネルSVMを用いた予測勾配降下アルゴリズムを用いて, 対向学習を行う。
論文 参考訳(メタデータ) (2025-02-24T13:03:19Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - PFAttack: Stealthy Attack Bypassing Group Fairness in Federated Learning [24.746843739848003]
フェデレーテッド・ラーニング(FL)は、異なる集団に対して偏見のない決定を下すグローバルモデルを、クライアントが共同でトレーニングすることを可能にする。
これまでの研究では、FLシステムは毒殺攻撃のモデルに弱いことが示されている。
本研究では,グローバルモデル精度を低下させるのではなく,公平性メカニズムを回避することを目的としたPFATTACK(Profit-driven Fairness Attack)を提案する。
論文 参考訳(メタデータ) (2024-10-09T03:23:07Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Clustering Effect of (Linearized) Adversarial Robust Models [60.25668525218051]
本稿では, 敵の強靭性に対する新たな理解を提案し, ドメイン適応や頑健性向上といったタスクに適用する。
提案したクラスタリング戦略の合理性と優越性を実験的に評価した。
論文 参考訳(メタデータ) (2021-11-25T05:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。