論文の概要: RobustFSM: Submodular Maximization in Federated Setting with Malicious Clients
- arxiv url: http://arxiv.org/abs/2511.02029v1
- Date: Mon, 03 Nov 2025 20:07:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.669247
- Title: RobustFSM: Submodular Maximization in Federated Setting with Malicious Clients
- Title(参考訳): RobustFSM: 悪意のあるクライアントによるフェデレーション設定におけるサブモジュールの最大化
- Authors: Duc A. Tran, Dung Truong, Duy Le,
- Abstract要約: 本稿では,様々なクライアント攻撃に対してロバストFSMを提案する。
この改善の程度は、データセットとアタックシナリオに依存します。
- 参考スコア(独自算出の注目度): 0.5194968784739241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Submodular maximization is an optimization problem benefiting many machine learning applications, where we seek a small subset best representing an extremely large dataset. We focus on the federated setting where the data are locally owned by decentralized clients who have their own definitions for the quality of representability. This setting requires repetitive aggregation of local information computed by the clients. While the main motivation is to respect the privacy and autonomy of the clients, the federated setting is vulnerable to client misbehaviors: malicious clients might share fake information. An analogy is backdoor attack in conventional federated learning, but our challenge differs freshly due to the unique characteristics of submodular maximization. We propose RobustFSM, a federated submodular maximization solution that is robust to various practical client attacks. Its performance is substantiated with an empirical evaluation study using real-world datasets. Numerical results show that the solution quality of RobustFSM substantially exceeds that of the conventional federated algorithm when attacks are severe. The degree of this improvement depends on the dataset and attack scenarios, which can be as high as 200%
- Abstract(参考訳): 部分モジュラ最大化(submodular maximization)は、非常に大きなデータセットを表す小さなサブセットを求める、多くの機械学習アプリケーションにとっての最適化問題である。
我々は、表現可能性の品質について独自の定義を持つ分散クライアントによって、データをローカルに所有するフェデレートされた設定に焦点を当てる。
この設定は、クライアントによって計算されたローカル情報の繰り返し集約を必要とする。
主な動機は、クライアントのプライバシと自律性を尊重することにあるが、フェデレートされた設定は、クライアントの不正行為に対して脆弱である。
従来のフェデレーション学習におけるバックドアアタックは類似性があるが,本研究の課題は,部分モジュラー最大化の特異な特徴から,新たに異なってくる。
本稿では,様々なクライアント攻撃に対してロバストFSMを提案する。
その性能は実世界のデータセットを用いた経験的評価研究で実証されている。
数値計算の結果,ロバストFSMの解の質は,攻撃が重大である場合,従来のフェデレーションアルゴリズムよりもかなり高いことがわかった。
この改善の程度はデータセットと攻撃シナリオに依存します。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Hybrid-Regularized Magnitude Pruning for Robust Federated Learning under Covariate Shift [2.298932494750101]
クライアント側トレーニング分布の不整合がフェデレート学習モデルの性能を著しく低下させることを示す。
本稿では,ニューラルネットワークの疎結合性,冗長性,堅牢性を改善するために,フラニングとクライアントトレーニングの正規化を組み合わせた新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - Optimizing Cross-Client Domain Coverage for Federated Instruction Tuning of Large Language Models [87.49293964617128]
大規模言語モデル(LLM)のためのFedDIT(Federated Domain-specific instruction tuning)は、分散プライベートデータと限定データを用いて、特定のドメインの性能を向上させることを目的としている。
データ不均一性ではなく、クロスクライアントなドメインカバレッジが重要な要素であることを実証的に証明します。
我々は多様性指向のクライアントセンターの選択と検索に基づく拡張を通じて、このカバレッジを明示的に最大化するアルゴリズムであるFedDCAを紹介する。
論文 参考訳(メタデータ) (2024-09-30T09:34:31Z) - Beyond the Federation: Topology-aware Federated Learning for Generalization to Unseen Clients [10.397502254316645]
フェデレートラーニングは、分散センシティブなデータに取り組むために広く利用されている。
Topology-Aware Federated Learning (TFL)は、オフ・オブ・フェデレーション(OOF)データに対して堅牢なモデルをトレーニングする。
クライアントトポロジ学習(Client Topology Learning)とクライアントトポロジ学習(Learning on Client Topology)という2つの重要なモジュールからなるTFLの新しい最適化問題を定式化する。
様々な実世界のデータセットに対する実証的な評価は、TFLの優れたOOF堅牢性とスケーラビリティを検証する。
論文 参考訳(メタデータ) (2024-07-06T03:57:05Z) - Personalized federated learning based on feature fusion [2.943623084019036]
フェデレートされた学習により、分散クライアントは、クライアントのプライバシを保護するためにデータをローカルに保存しながら、トレーニングで協力することができる。
pFedPMと呼ばれる個人化学習手法を提案する。
このプロセスでは、従来のグラデーションアップロードを機能アップロードに置き換え、通信コストを削減し、異種クライアントモデルを可能にする。
論文 参考訳(メタデータ) (2024-06-24T12:16:51Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Federated Learning for Semantic Parsing: Task Formulation, Evaluation
Setup, New Algorithms [29.636944156801327]
複数のクライアントは、セマンティック解析データを共有せずに、1つのグローバルモデルを協調的にトレーニングする。
Lorarは、各ラウンド中のトレーニング損失の削減に基づいて、グローバルモデル更新に対する各クライアントのコントリビューションを調整する。
より小さなデータセットを持つクライアントは、より大きなパフォーマンス向上を享受する。
論文 参考訳(メタデータ) (2023-05-26T19:25:49Z) - Re-Weighted Softmax Cross-Entropy to Control Forgetting in Federated
Learning [14.196701066823499]
フェデレートラーニング(Federated Learning)では、独立したクライアントノードの集合で計算されたモデル更新を集約することによって、グローバルモデルが学習される。
我々は、個々のクライアントモデルが、他のクライアントのデータに関して破滅的な忘れを経験していることを示します。
本稿では,損失の計算に先立ってソフトマックスのロジットを再重み付けすることで,クロスエントロピーの目標を周期的に修正する効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-04-11T14:51:55Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - FedFM: Anchor-based Feature Matching for Data Heterogeneity in Federated
Learning [91.74206675452888]
本稿では,各クライアントの特徴を共有カテゴリーのアンカーにマッチさせる新しいFedFM法を提案する。
効率と柔軟性を向上させるため,FedFM-Liteと呼ばれるFedFM変種を提案し,クライアントは同期時間と通信帯域幅のコストを少なくしてサーバと通信する。
論文 参考訳(メタデータ) (2022-10-14T08:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。