論文の概要: Free-Rider and Conflict Aware Collaboration Formation for Cross-Silo Federated Learning
- arxiv url: http://arxiv.org/abs/2410.19321v2
- Date: Mon, 28 Oct 2024 02:06:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:20:56.998744
- Title: Free-Rider and Conflict Aware Collaboration Formation for Cross-Silo Federated Learning
- Title(参考訳): クロスサイロ・フェデレーション学習のための自由ライダーと競合意識の協調形成
- Authors: Mengmeng Chen, Xiaohu Wu, Xiaoli Tang, Tiantian He, Yew-Soon Ong, Qiqi Liu, Qicheng Lao, Han Yu,
- Abstract要約: Federated Learning(FL)は、複数のFL参加者がプライベートデータを共有せずにトレーニングモデル上でコラボレーションできる機械学習パラダイムである。
我々は、FL-PTがFLエコシステムの恩恵を受ける場合に限り、FL-PTがFLの恩恵を受けることを確実にする最適なFLコラボレーション形成戦略であるFedEgoistsを提案する。
FL-PT連立が最適であることは理論的に証明する。
- 参考スコア(独自算出の注目度): 32.35705737668307
- License:
- Abstract: Federated learning (FL) is a machine learning paradigm that allows multiple FL participants (FL-PTs) to collaborate on training models without sharing private data. Due to data heterogeneity, negative transfer may occur in the FL training process. This necessitates FL-PT selection based on their data complementarity. In cross-silo FL, organizations that engage in business activities are key sources of FL-PTs. The resulting FL ecosystem has two features: (i) self-interest, and (ii) competition among FL-PTs. This requires the desirable FL-PT selection strategy to simultaneously mitigate the problems of free riders and conflicts of interest among competitors. To this end, we propose an optimal FL collaboration formation strategy -- FedEgoists -- which ensures that: (1) a FL-PT can benefit from FL if and only if it benefits the FL ecosystem, and (2) a FL-PT will not contribute to its competitors or their supporters. It provides an efficient clustering solution to group FL-PTs into coalitions, ensuring that within each coalition, FL-PTs share the same interest. We theoretically prove that the FL-PT coalitions formed are optimal since no coalitions can collaborate together to improve the utility of any of their members. Extensive experiments on widely adopted benchmark datasets demonstrate the effectiveness of FedEgoists compared to nine state-of-the-art baseline methods, and its ability to establish efficient collaborative networks in cross-silos FL with FL-PTs that engage in business activities.
- Abstract(参考訳): Federated Learning(FL)は、複数のFL参加者(FL-PT)がプライベートデータを共有せずにトレーニングモデル上でコラボレーションできる機械学習パラダイムである。
データの不均一性のため、FLトレーニングプロセスでは負の移動が発生する可能性がある。
これはデータの相補性に基づいてFL-PT選択を必要とする。
クロスサイロFLでは、ビジネス活動に従事する組織がFL-PTの重要な情報源である。
その結果生まれたFLエコシステムには2つの特徴がある。
(i)自己利益、及び
(二)FL-PT間の競争。
これは、フリーライダーの問題を緩和し、競合相手間の利害対立を緩和するために、望ましいFL-PT選択戦略を必要とする。
この目的のために,(1)FL-PTがFLエコシステムの恩恵を受ける場合と,(2)FL-PTが競合相手やその支持者に貢献しない場合に限り,FL-PTがFLの恩恵を受けることを保証する,最適なFLコラボレーション形成戦略であるFedEgoistsを提案する。
これは、FL-PTを連立にグループ化するための効率的なクラスタリングソリューションを提供し、各連立内でFL-PTが同じ関心を共有していることを保証する。
FL-PT連立が最適であることは理論的に証明する。
広く採用されているベンチマークデータセットに対する大規模な実験は、9つの最先端ベースライン手法と比較してフェデゴイストの有効性を示し、ビジネス活動に従事するFL-PTとクロスサイロFLにおける効率的な協調ネットワークを確立する能力を示している。
関連論文リスト
- Cooperation and Personalization on a Seesaw: Choice-based FL for Safe Cooperation in Wireless Networks [8.064072834606456]
Federated Learning (FL) は、革新的な分散人工知能技術である。
まず、FLを無線ネットワークに適用する際の利点と懸念について概説する。
選択に基づくアプローチで協調レベルを調整できる可能性について論じる。
論文 参考訳(メタデータ) (2024-11-06T14:09:47Z) - Real-World Federated Learning in Radiology: Hurdles to overcome and Benefits to gain [2.8048919658768523]
フェデレートラーニング(FL)は、データをローカルに保持しながら協調的なモデルトレーニングを可能にする。
現在、ラジオロジーにおけるほとんどのFL研究は、シミュレーション環境で行われている。
現実のFLイニシアチブがこれらのハードルを克服するために取られた具体的な措置を伝えることはめったにない。
論文 参考訳(メタデータ) (2024-05-15T15:04:27Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Harnessing the Power of Federated Learning in Federated Contextual Bandits [20.835106310302876]
FCB(Federated contextual bandits)は、FLとシーケンシャルな意思決定の重要な統合である。
FCBアプローチは、しばしば標準FLフレームワークから逸脱する、調整されたFLコンポーネントを主に採用している。
特に、回帰に基づくCBアルゴリズムを活用するために、FedIGWと呼ばれる新しいFCB設計が提案されている。
論文 参考訳(メタデータ) (2023-12-26T21:44:09Z) - FedCompetitors: Harmonious Collaboration in Federated Learning with
Competing Participants [41.070716405671206]
フェデレートラーニング(FL)は、機械学習モデルの協調トレーニングのためのプライバシ保護アプローチを提供する。
データ補完性に基づいて各FL参加者に対して適切な協力者を選択することが重要である。
一部のFL-PTが競合するFL-PT間の個人間関係を考えることは必須である。
論文 参考訳(メタデータ) (2023-12-18T17:53:01Z) - Bayesian Federated Learning: A Survey [54.40136267717288]
フェデレートラーニング(FL)は、分散インフラストラクチャ、コミュニケーション、コンピューティング、学習をプライバシ保護の方法で統合する際の利点を示している。
既存のFL手法のロバスト性と能力は、制限された動的データと条件によって挑戦される。
BFLはこれらの問題に対処するための有望なアプローチとして登場した。
論文 参考訳(メタデータ) (2023-04-26T03:41:17Z) - Towards Verifiable Federated Learning [15.758657927386263]
Federated Learning(FL)は、強力なモデルを構築しながらユーザのプライバシを保存する、コラボレーション機械学習の新たなパラダイムである。
自己関心のある団体によるオープンな参加の性質から、FLは正当なFL参加者による潜在的な不適切な行動から守らなければならない。
検証可能なフェデレーション学習は、学界や業界からも大きな関心を集めている研究の新たな話題となっている。
論文 参考訳(メタデータ) (2022-02-15T09:52:25Z) - FedComm: Federated Learning as a Medium for Covert Communication [56.376997104843355]
フェデレートラーニング(FL)は、ディープラーニングの採用に伴うプライバシーへの影響を軽減するためのソリューションである。
本稿では,FL方式の通信能力について詳しく検討する。
我々は,新しいマルチシステム被覆通信技術であるFedCommを紹介する。
論文 参考訳(メタデータ) (2022-01-21T17:05:56Z) - A Contract Theory based Incentive Mechanism for Federated Learning [52.24418084256517]
フェデレートラーニング(FL)は、データプライバシ保護機械学習パラダイムとして機能し、分散クライアントによってトレーニングされた協調モデルを実現する。
FLタスクを達成するために、タスクパブリッシャはFLサーバに金銭的なインセンティブを支払う必要があり、FLサーバはFLクライアントにタスクをオフロードする。
タスクがクライアントによってプライベートにトレーニングされているという事実から、FLクライアントに対して適切なインセンティブを設計することは困難である。
論文 参考訳(メタデータ) (2021-08-12T07:30:42Z) - Convergence Time Optimization for Federated Learning over Wireless
Networks [160.82696473996566]
無線ユーザが(ローカル収集データを用いて訓練した)ローカルFLモデルを基地局(BS)に送信する無線ネットワークを考える。
中央コントローラとして機能するBSは、受信したローカルFLモデルを使用してグローバルFLモデルを生成し、それを全ユーザにブロードキャストする。
無線ネットワークにおけるリソースブロック(RB)の数が限られているため、ローカルFLモデルパラメータをBSに送信するために選択できるのは一部のユーザのみである。
各ユーザが独自のトレーニングデータサンプルを持っているため、BSは、収束したグローバルFLモデルを生成するために、すべてのローカルユーザFLモデルを含むことを好んでいる。
論文 参考訳(メタデータ) (2020-01-22T01:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。