論文の概要: FedCompetitors: Harmonious Collaboration in Federated Learning with
Competing Participants
- arxiv url: http://arxiv.org/abs/2312.11391v1
- Date: Mon, 18 Dec 2023 17:53:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 19:06:26.933918
- Title: FedCompetitors: Harmonious Collaboration in Federated Learning with
Competing Participants
- Title(参考訳): FedCompetitors: 競合する参加者とのフェデレーション学習における調和したコラボレーション
- Authors: Shanli Tan, Hao Cheng, Xiaohu Wu, Han Yu, Tiantian He, Yew-Soon Ong,
Chongjun Wang, and Xiaofeng Tao
- Abstract要約: フェデレートラーニング(FL)は、機械学習モデルの協調トレーニングのためのプライバシ保護アプローチを提供する。
データ補完性に基づいて各FL参加者に対して適切な協力者を選択することが重要である。
一部のFL-PTが競合するFL-PT間の個人間関係を考えることは必須である。
- 参考スコア(独自算出の注目度): 41.070716405671206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) provides a privacy-preserving approach for
collaborative training of machine learning models. Given the potential data
heterogeneity, it is crucial to select appropriate collaborators for each FL
participant (FL-PT) based on data complementarity. Recent studies have
addressed this challenge. Similarly, it is imperative to consider the
inter-individual relationships among FL-PTs where some FL-PTs engage in
competition. Although FL literature has acknowledged the significance of this
scenario, practical methods for establishing FL ecosystems remain largely
unexplored. In this paper, we extend a principle from the balance theory,
namely ``the friend of my enemy is my enemy'', to ensure the absence of
conflicting interests within an FL ecosystem. The extended principle and the
resulting problem are formulated via graph theory and integer linear
programming. A polynomial-time algorithm is proposed to determine the
collaborators of each FL-PT. The solution guarantees high scalability, allowing
even competing FL-PTs to smoothly join the ecosystem without conflict of
interest. The proposed framework jointly considers competition and data
heterogeneity. Extensive experiments on real-world and synthetic data
demonstrate its efficacy compared to five alternative approaches, and its
ability to establish efficient collaboration networks among FL-PTs.
- Abstract(参考訳): Federated Learning(FL)は、機械学習モデルの協調トレーニングのためのプライバシ保護アプローチを提供する。
データの不均一性を考えると、データの相補性に基づいて各FL参加者(FL-PT)に対して適切なコラボレータを選択することが重要である。
最近の研究はこの課題に対処している。
同様に、FL-PTが競合するFL-PT間の個人間関係を考えることが不可欠である。
flの文献はこのシナリオの重要性を認めているが、flエコシステムを確立するための実践的な方法はほとんど解明されていない。
本稿では,flエコシステムにおける相反する利害関係の欠如を保証するために,均衡理論から「敵の友は敵である」という原理を拡張した。
拡張原理と結果の問題はグラフ理論と整数線形計画法によって定式化される。
各FL-PTの協調者を決定するために多項式時間アルゴリズムを提案する。
このソリューションは高いスケーラビリティを保証し、競合するfl-ptさえも利害の衝突なしにスムーズにエコシステムに参加することができる。
提案フレームワークは競合やデータの均一性を共同で検討する。
実世界および合成データの大規模な実験は、5つの代替手法と比較して有効であり、FL-PT間の効率的な協調ネットワークを確立する能力を示している。
関連論文リスト
- Free-Rider and Conflict Aware Collaboration Formation for Cross-Silo Federated Learning [32.35705737668307]
Federated Learning(FL)は、複数のFL参加者がプライベートデータを共有せずにトレーニングモデル上でコラボレーションできる機械学習パラダイムである。
我々は、FL-PTがFLエコシステムの恩恵を受ける場合に限り、FL-PTがFLの恩恵を受けることを確実にする最適なFLコラボレーション形成戦略であるFedEgoistsを提案する。
FL-PT連立が最適であることは理論的に証明する。
論文 参考訳(メタデータ) (2024-10-25T06:13:26Z) - Redefining Contributions: Shapley-Driven Federated Learning [3.9539878659683363]
フェデレーテッド・ラーニング(FL)は、機械学習において重要なアプローチとして登場した。
参加者が平等に、あるいは正直に貢献しない場合、グローバルなモデル収束を保証することは困難です。
本稿では,FLにおけるコントリビューションの詳細な評価のために,ShapFedと呼ばれる新しいコントリビューションアセスメントアセスメント手法を提案する。
論文 参考訳(メタデータ) (2024-06-01T22:40:31Z) - OCD-FL: A Novel Communication-Efficient Peer Selection-based
Decentralized Federated Learning [2.603477777158694]
本稿では,OCD-FL(Opportunistic Communication- efficient decentralized Federated Learning)方式を提案する。
OCD-FLは協調作業のための系統的なFLピア選択で構成され,エネルギー消費を低減しつつ,FL知識の最大ゲインを達成することを目的としている。
実験の結果,OCD-FLは完全協調型FLと同等あるいは良好な性能を達成でき,消費エネルギーを少なくとも30%,最大80%低減できることがわかった。
論文 参考訳(メタデータ) (2024-03-06T20:34:08Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Deep Equilibrium Models Meet Federated Learning [71.57324258813675]
本研究では,従来の深層学習ネットワークの代わりにDeep Equilibrium(DEQ)モデルを用いて,フェデレートラーニング(FL)問題について検討する。
我々は、DECモデルをフェデレート学習フレームワークに組み込むことで、FLのいくつかのオープンな問題に自然に対処できると主張している。
我々の知る限りでは、この研究は、DECモデルとフェデレーションラーニングの関連性を確立する最初のものである。
論文 参考訳(メタデータ) (2023-05-29T22:51:40Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - CoFED: Cross-silo Heterogeneous Federated Multi-task Learning via
Co-training [11.198612582299813]
Federated Learning(FL)は、参加者がプライベートデータを交換することなく、高品質なモデルを協調的にトレーニングできる機械学習技術である。
擬似ラベル付き未ラベルデータに基づく通信効率の高いFLスキームであるCoFEDを提案する。
実験結果から,CoFEDは通信コストの低減を図った。
論文 参考訳(メタデータ) (2022-02-17T11:34:20Z) - Towards Verifiable Federated Learning [15.758657927386263]
Federated Learning(FL)は、強力なモデルを構築しながらユーザのプライバシを保存する、コラボレーション機械学習の新たなパラダイムである。
自己関心のある団体によるオープンな参加の性質から、FLは正当なFL参加者による潜在的な不適切な行動から守らなければならない。
検証可能なフェデレーション学習は、学界や業界からも大きな関心を集めている研究の新たな話題となっている。
論文 参考訳(メタデータ) (2022-02-15T09:52:25Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。