論文の概要: Learning to Collaborate
- arxiv url: http://arxiv.org/abs/2108.07926v1
- Date: Wed, 18 Aug 2021 01:45:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 14:34:14.995717
- Title: Learning to Collaborate
- Title(参考訳): コラボレーションを学ぶ
- Authors: Sen Cui, Jian Liang, Weishen Pan, Kun Chen, Changshui Zhang, Fei Wang
- Abstract要約: 複数のクライアントを含む協調研究ネットワーク上での効果的な学習に焦点をあてる。
目標は、ネットワーク内の他のクライアントとのセキュアなコラボレーションを通じて、各クライアントのモデルを学ぶことだ。
- 参考スコア(独自算出の注目度): 46.0594847916505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we focus on effective learning over a collaborative research
network involving multiple clients. Each client has its own sample population
which may not be shared with other clients due to privacy concerns. The goal is
to learn a model for each client, which behaves better than the one learned
from its own data, through secure collaborations with other clients in the
network. Due to the discrepancies of the sample distributions across different
clients, it is not necessarily that collaborating with everyone will lead to
the best local models. We propose a learning to collaborate framework, where
each client can choose to collaborate with certain members in the network to
achieve a "collaboration equilibrium", where smaller collaboration coalitions
are formed within the network so that each client can obtain the model with the
best utility. We propose the concept of benefit graph which describes how each
client can benefit from collaborating with other clients and develop a Pareto
optimization approach to obtain it. Finally the collaboration coalitions can be
derived from it based on graph operations. Our framework provides a new way of
setting up collaborations in a research network. Experiments on both synthetic
and real world data sets are provided to demonstrate the effectiveness of our
method.
- Abstract(参考訳): 本稿では,複数のクライアントを用いた共同研究ネットワーク上での効果的な学習に着目する。
各クライアントには、プライバシ上の懸念から他のクライアントと共有されない、独自のサンプル人口がある。
目標は、ネットワーク内の他のクライアントとのセキュアなコラボレーションを通じて、自身のデータから学んだものよりもうまく動作する各クライアントのモデルを学ぶことだ。
異なるクライアントにまたがるサンプル分布の相違により、全員との共同作業が必ずしも最高のローカルモデルに繋がるとは限らない。
各クライアントがネットワーク内の特定のメンバとコラボレートして,ネットワーク内でより小さなコラボレーティブコラボレーティブを形成する"コラボレーティブ均衡"を実現するための,コラボレーティブフレームワークを提案する。
本稿では、各クライアントが他のクライアントと協調して得られる利益グラフを提案し、それを得るためにPareto最適化アプローチを開発する。
最後に、グラフ操作に基づいてコラボレーティブ・コラボレーティブを導出することができる。
私たちのフレームワークは、研究ネットワークにコラボレーションを設定する新しい方法を提供します。
提案手法の有効性を実証するために, 合成および実世界の両方のデータセットの実験を行った。
関連論文リスト
- Balancing Similarity and Complementarity for Federated Learning [91.65503655796603]
フェデレートラーニング(FL)は、モバイルとIoTシステムにおいてますます重要になっている。
FLの重要な課題の1つは、非i.d.データのような統計的不均一性を管理することである。
FL協調における類似性と相補性のバランスをとる新しいフレームワークである texttFedSaC を導入する。
論文 参考訳(メタデータ) (2024-05-16T08:16:19Z) - Hybrid FedGraph: An efficient hybrid federated learning algorithm using graph convolutional neural network [13.786989442742588]
フェデレートラーニング(Federated Learning)は、分散クライアント上の機械学習モデルの分散トレーニングのための新興パラダイムである。
クライアントのサブセットから特徴を学習しながら特徴共有情報をキャプチャするグラフ畳み込みニューラルネットワークを提案する。
また、データのプライバシを保ちながら、各クライアントのディープニューラルネットワークによって生成された機能を集約する、単純だが効果的なクラスタリングアルゴリズムも開発しています。
論文 参考訳(メタデータ) (2024-04-15T04:02:39Z) - Federated Learning Can Find Friends That Are Advantageous [14.993730469216546]
フェデレートラーニング(FL)では、クライアントデータの分散の性質と均一性は、機会と課題の両方を示します。
本稿では,FLトレーニングに参加するクライアントに対して適応的なアグリゲーション重みを割り当てるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:46:37Z) - FedSampling: A Better Sampling Strategy for Federated Learning [81.85411484302952]
フェデレートラーニング(FL)は、プライバシを保存する方法で分散化されたデータからモデルを学習するための重要なテクニックである。
既存のFLメソッドは通常、各ラウンドでローカルモデル学習のために一様にクライアントをサンプリングする。
フェデレート学習のための新しいデータ一様サンプリング戦略(FedSampling)を提案する。
論文 参考訳(メタデータ) (2023-06-25T13:38:51Z) - FilFL: Client Filtering for Optimized Client Participation in Federated Learning [71.46173076298957]
フェデレートラーニングは、クライアントがローカルデータを交換することなく、協調的にモデルをトレーニングすることを可能にする。
トレーニングプロセスに参加するクライアントは、収束率、学習効率、モデル一般化に大きな影響を与えます。
本稿では,モデル一般化を改善し,クライアント参加とトレーニングを最適化する新しい手法であるクライアントフィルタリングを提案する。
論文 参考訳(メタデータ) (2023-02-13T18:55:31Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Personalized Federated Learning with Multi-branch Architecture [0.0]
フェデレートラーニング(FL)は、複数のクライアントが相互に生データを公開することなく、協力的にモデルをトレーニングすることを可能にする。
ニューラルネットワークの各レイヤを複数のブランチに分割し,各ブランチにクライアント固有の重みを割り当てることで,パーソナライズを実現するマルチブランチアーキテクチャを用いた新しいPFL手法(pFedMB)を提案する。
CIFAR10およびCIFAR100データセットを用いて,pFedMBが最先端のPFL法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2022-11-15T06:30:57Z) - Find Your Friends: Personalized Federated Learning with the Right
Collaborators [7.749713014052951]
従来のフェデレーション学習環境では、中央サーバがクライアントのネットワークを調整し、1つのグローバルモデルをトレーニングする。
我々はFedeRiCoという新しい分散フレームワークを提案し、各クライアントはローカルなデータ配信に最適であるだけでなく、他のクライアントからも学べる。
論文 参考訳(メタデータ) (2022-10-12T21:29:22Z) - A Coalition Formation Game Approach for Personalized Federated Learning [12.784305390534888]
我々は,新しいパーソナライズされたアルゴリズム,pFedSVを提案し,各クライアントの最適なコラボレータ連携を識別し,SVに基づいてパーソナライズされたモデルアグリゲーションを実行する。
その結果、pFedSVは最先端のベンチマークと比較すると、各クライアントのパーソナライズ精度が優れていることがわかった。
論文 参考訳(メタデータ) (2022-02-05T07:16:44Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。