論文の概要: Collaborative Learning via Prediction Consensus
- arxiv url: http://arxiv.org/abs/2305.18497v2
- Date: Thu, 2 Nov 2023 15:10:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 17:32:43.401294
- Title: Collaborative Learning via Prediction Consensus
- Title(参考訳): 予測合意による協調学習
- Authors: Dongyang Fan, Celestine Mendler-D\"unner, Martin Jaggi
- Abstract要約: 我々は,協力者の専門知識を活用して,各エージェントの目標が自身のモデルを改善するための協調学習環境を考える。
本研究では, 共分散ラベル付き補助データを利用した蒸留法を提案する。
我々は,本手法が対象領域における個々のモデルの性能を大幅に向上させることができることを実証的に実証した。
- 参考スコア(独自算出の注目度): 38.89001892487472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a collaborative learning setting where the goal of each agent is
to improve their own model by leveraging the expertise of collaborators, in
addition to their own training data. To facilitate the exchange of expertise
among agents, we propose a distillation-based method leveraging shared
unlabeled auxiliary data, which is pseudo-labeled by the collective. Central to
our method is a trust weighting scheme that serves to adaptively weigh the
influence of each collaborator on the pseudo-labels until a consensus on how to
label the auxiliary data is reached. We demonstrate empirically that our
collaboration scheme is able to significantly boost individual models'
performance in the target domain from which the auxiliary data is sampled. At
the same time, it can provably mitigate the negative impact of bad models on
the collective. By design, our method adeptly accommodates heterogeneity in
model architectures and substantially reduces communication overhead compared
to typical collaborative learning methods.
- Abstract(参考訳): 我々は,各エージェントの目標が,自己のトレーニングデータに加えて,協力者の専門知識を活用し,自身のモデルを改善することにある,協調学習環境を考える。
エージェント間の専門知識の交換を容易にするために,集合体による擬似ラベルの共有非ラベル補助データを利用した蒸留法を提案する。
提案手法の中心となるのは,補助データのラベル付け方法が合意に達するまで,各協力者が擬似ラベルに与える影響を適応的に評価する信頼重み付け方式である。
我々は,補助データがサンプリングされた対象領域において,個々のモデルの性能を著しく向上させることができることを実証的に示す。
同時に、悪いモデルが集団に与える影響を確実に軽減することができる。
設計上,本手法はモデルアーキテクチャの不均一性に適応し,典型的な協調学習法に比べて通信オーバーヘッドを大幅に低減する。
関連論文リスト
- On the effects of similarity metrics in decentralized deep learning under distributional shift [2.6763602268733626]
分散学習(DL)は、組織やユーザ間のプライバシー保護コラボレーションを可能にする。
本稿では,モデルマージのためのピア識別のためのDLにおける様々な類似度指標の有効性について検討する。
論文 参考訳(メタデータ) (2024-09-16T20:48:16Z) - Decentralized Personalized Federated Learning [4.5836393132815045]
私たちは、パーソナライズされたモデルのトレーニングに適したコラボレータを選択する際に、各クライアントをガイドするコラボレーショングラフの作成に重点を置いています。
従来の手法とは違って,クライアントの欲求関係を考慮し,より粒度の細かい共同作業者を特定する。
これを実現するために,制約付きアルゴリズムを用いた二段階最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-10T17:58:48Z) - Federated Learning Can Find Friends That Are Advantageous [14.993730469216546]
フェデレートラーニング(FL)では、クライアントデータの分散の性質と均一性は、機会と課題の両方を示します。
本稿では,FLトレーニングに参加するクライアントに対して適応的なアグリゲーション重みを割り当てるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:46:37Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Decentralized Learning with Multi-Headed Distillation [12.90857834791378]
プライベートデータによる分散学習は、機械学習の中心的な問題である。
本研究では, 個別の非IDデータを持つ複数のエージェントが相互に学習できる, 蒸留に基づく分散学習手法を提案する。
論文 参考訳(メタデータ) (2022-11-28T21:01:43Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - Self-Supervised Relational Reasoning for Representation Learning [5.076419064097733]
自己教師型学習では、ラベルのないデータに対して代替ターゲットを定義することにより、代理目的を達成することを課題とする。
本稿では,学習者が無ラベルデータに暗黙的な情報から信号をブートストラップできる,新たな自己教師型関係推論法を提案する。
提案手法は,標準データセット,プロトコル,バックボーンを用いて,厳密な実験手順に従って評価する。
論文 参考訳(メタデータ) (2020-06-10T14:24:25Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。