論文の概要: Power to the Clients: Federated Learning in a Dictatorship Setting
- arxiv url: http://arxiv.org/abs/2510.22149v1
- Date: Sat, 25 Oct 2025 04:02:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.837583
- Title: Power to the Clients: Federated Learning in a Dictatorship Setting
- Title(参考訳): クライアントへのパワー: ディクタクタシップ環境におけるフェデレーションラーニング
- Authors: Mohammadsajad Alipour, Mohammad Mohammadi Amiri,
- Abstract要約: フェデレートラーニング(FL)は、分散モデルトレーニングのための有望なパラダイムとして登場し、複数のクライアントがローカルデータを交換することなく、共同で共有モデルを学ぶことができる。
我々は、サーバモデルから他のすべてのクライアントのコントリビューションを消去し、自身を保存できる悪意のある参加者のクラスであるディクテータクライアントを紹介します。
そこで本稿では,このような顧客を力づける具体的な攻撃戦略を提案し,学習過程におけるその効果を体系的に分析する。
- 参考スコア(独自算出の注目度): 5.100622189286672
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has emerged as a promising paradigm for decentralized model training, enabling multiple clients to collaboratively learn a shared model without exchanging their local data. However, the decentralized nature of FL also introduces vulnerabilities, as malicious clients can compromise or manipulate the training process. In this work, we introduce dictator clients, a novel, well-defined, and analytically tractable class of malicious participants capable of entirely erasing the contributions of all other clients from the server model, while preserving their own. We propose concrete attack strategies that empower such clients and systematically analyze their effects on the learning process. Furthermore, we explore complex scenarios involving multiple dictator clients, including cases where they collaborate, act independently, or form an alliance in order to ultimately betray one another. For each of these settings, we provide a theoretical analysis of their impact on the global model's convergence. Our theoretical algorithms and findings about the complex scenarios including multiple dictator clients are further supported by empirical evaluations on both computer vision and natural language processing benchmarks.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散モデルトレーニングのための有望なパラダイムとして登場し、複数のクライアントがローカルデータを交換することなく、共同で共有モデルを学ぶことができる。
しかし、FLの分散した性質は、悪意のあるクライアントがトレーニングプロセスの妥協や操作を行うため、脆弱性も導入している。
本研究では,サーバモデルから他のすべてのクライアントのコントリビューションを完全に消去し,自己の保存を行うことのできる,新しい,明確に定義された,分析可能な,悪意のある参加者のクラスであるディクテータクライアントを紹介する。
そこで本稿では,このような顧客を力づける具体的な攻撃戦略を提案し,学習過程におけるその効果を体系的に分析する。
さらに,複数のディクテータクライアントが協力したり,独立して行動したり,あるいはアライアンスを形成して最終的に相互を裏切るような複雑なシナリオについても検討する。
これらの各設定に対して、大域的モデルの収束に対するそれらの影響に関する理論的分析を提供する。
複数のディクタレータクライアントを含む複雑なシナリオに関する理論的アルゴリズムと知見は、コンピュータビジョンと自然言語処理ベンチマークの両方に関する経験的評価によってさらに支持される。
関連論文リスト
- Decentralized Dynamic Cooperation of Personalized Models for Federated Continual Learning [50.56947843548702]
フェデレーション型連続学習のための分散動的協調フレームワークを提案する。
顧客は、新しい知識の獲得と事前学習の維持のバランスをとるために、動的な協調学習連合を確立する。
また、協調的・動的平衡を達成するために、マージブロックアルゴリズムと動的協調的進化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-09-28T06:53:23Z) - Hierarchical Knowledge Structuring for Effective Federated Learning in Heterogeneous Environments [0.6144680854063939]
フェデレーション学習は、個々のデータのプライバシを維持しながら、分散エンティティ間の協調的なモデルトレーニングを可能にする。
近年の取り組みは、これらの問題を克服するために、ロジットに基づく知識集約と蒸留を活用している。
サンプルログを多粒度コードブックに定式化する階層的知識構造化(HKS)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-04T15:06:02Z) - Robust Asymmetric Heterogeneous Federated Learning with Corrupted Clients [60.22876915395139]
本稿では、異種・データ破損クライアントをモデルとした頑健な連立学習課題について検討する。
データ破損は、ランダムノイズ、圧縮アーティファクト、現実のデプロイメントにおける環境条件などの要因によって避けられない。
本稿では,これらの問題に対処する新しいロバスト非対称不均一なフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-12T09:52:04Z) - Active-Passive Federated Learning for Vertically Partitioned Multi-view Data [48.985955382701185]
フレキシブルなアクティブ・パッシブ・フェデレーション・ラーニング(APFed)フレームワークを提案する。
アクティブクライアントは学習タスクの開始者であり、完全なモデルを構築する責任を持ち、受動的クライアントはアシスタントとしてのみ機能する。
さらに、APFedフレームワークを2つの分類方法に分類し、それぞれに再構成損失とパッシブクライアントに対するコントラスト損失を利用する。
論文 参考訳(メタデータ) (2024-09-06T08:28:35Z) - Unlocking the Potential of Prompt-Tuning in Bridging Generalized and
Personalized Federated Learning [49.72857433721424]
Vision Transformer (ViT) と Visual Prompt Tuning (VPT) は、様々なコンピュータビジョンタスクの効率を改善して最先端のパフォーマンスを実現する。
本稿では,GFL(Generalized FL)とPFL(Personalized FL)を組み合わせた新しいアルゴリズムSGPTを提案する。
論文 参考訳(メタデータ) (2023-10-27T17:22:09Z) - Heterogeneous Federated Learning via Personalized Generative Networks [7.629157720712401]
フェデレートラーニング(FL)は、データを共有することなく、複数のクライアントが共通のグローバル機械学習モデルを構築することを可能にする。
本稿では,サーバがクライアント固有のジェネレータを訓練するクライアント間の知識伝達手法を提案する。
論文 参考訳(メタデータ) (2023-08-25T09:37:02Z) - Personalized Federated Learning via Amortized Bayesian Meta-Learning [21.126405589760367]
我々は,Amortized Bayesian Meta-Learningを通じて,パーソナライズド・フェデレーション・ラーニングの新しい視点を紹介する。
具体的には,クライアント間の階層的変動推論を用いたemphFedABMLという新しいアルゴリズムを提案する。
我々の理論解析は平均一般化誤差の上限を提供し、未知のデータに対する一般化性能を保証する。
論文 参考訳(メタデータ) (2023-07-05T11:58:58Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - RobustFed: A Truth Inference Approach for Robust Federated Learning [9.316565110931743]
フェデレートラーニング(Federated Learning)は、クライアントが中央サーバのオーケストレーションの下で協調的にグローバルなモデルをトレーニングすることを可能にするフレームワークである。
統合学習における集約ステップは、中央サーバがクライアントの動作を管理することができないため、敵攻撃に対して脆弱である。
本稿では,クラウドソーシングにおける真理推論手法に着想を得た新しいロバスト集約アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-18T09:34:57Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。