論文の概要: Federated Learning of Models Pre-Trained on Different Features with
Consensus Graphs
- arxiv url: http://arxiv.org/abs/2306.01240v1
- Date: Fri, 2 Jun 2023 02:24:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 17:04:42.527556
- Title: Federated Learning of Models Pre-Trained on Different Features with
Consensus Graphs
- Title(参考訳): コンセンサスグラフを用いた異なる特徴に基づく事前学習モデルのフェデレーション学習
- Authors: Tengfei Ma, Trong Nghia Hoang, Jie Chen
- Abstract要約: プライベートデータセットと分散データセットで効果的なグローバルモデルを学ぶことは、機械学習においてますます重要な課題になりつつある。
本稿では,局所モデルから局所表現を抽出し,それらをグローバル表現に組み込んで予測性能を向上させる特徴融合手法を提案する。
本稿では,これらの問題に対する解決策を提示し,電力網や交通網などの時系列データを用いた実世界の応用例を示す。
- 参考スコア(独自算出の注目度): 19.130197923214123
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning an effective global model on private and decentralized datasets has
become an increasingly important challenge of machine learning when applied in
practice. Existing distributed learning paradigms, such as Federated Learning,
enable this via model aggregation which enforces a strong form of modeling
homogeneity and synchronicity across clients. This is however not suitable to
many practical scenarios. For example, in distributed sensing, heterogeneous
sensors reading data from different views of the same phenomenon would need to
use different models for different data modalities. Local learning therefore
happens in isolation but inference requires merging the local models to achieve
consensus. To enable consensus among local models, we propose a feature fusion
approach that extracts local representations from local models and incorporates
them into a global representation that improves the prediction performance.
Achieving this requires addressing two non-trivial problems. First, we need to
learn an alignment between similar feature components which are arbitrarily
arranged across clients to enable representation aggregation. Second, we need
to learn a consensus graph that captures the high-order interactions between
local feature spaces and how to combine them to achieve a better prediction.
This paper presents solutions to these problems and demonstrates them in
real-world applications on time series data such as power grids and traffic
networks.
- Abstract(参考訳): プライベートデータセットと分散データセットで効果的なグローバルモデルを学ぶことは、実際に適用される機械学習において、ますます重要な課題となっている。
フェデレーション学習などの既存の分散学習パラダイムでは、モデル集約によってこれを実現している。
しかし、これは多くの実用的なシナリオには適していない。
例えば、分散センシングでは、同じ現象の異なるビューからデータを読み取る異種センサは、異なるデータモダリティのために異なるモデルを使用する必要がある。
したがって、ローカル学習は独立して行われるが、推論はコンセンサスを達成するためにローカルモデルをマージする必要がある。
局所モデル間のコンセンサスを実現するために,局所モデルから局所表現を抽出し,予測性能を向上させるグローバル表現に組み込む特徴融合手法を提案する。
これを達成するには、2つの非自明な問題に対処する必要がある。
まず、表現集約を可能にするために、クライアント間で任意に配置される類似の機能コンポーネント間の整合性を学ぶ必要がある。
次に、局所的な特徴空間間の高次相互作用を捉えるコンセンサスグラフと、それらを組み合わせてより良い予測を実現する方法を学ぶ必要がある。
本稿では,電力グリッドやトラヒックネットワークなどの時系列データを用いた実世界のアプリケーションにおいて,これらの問題に対する解決策を示す。
関連論文リスト
- Personalized Federated Learning via Feature Distribution Adaptation [3.410799378893257]
Federated Learning(FL)は、分散クライアントデータセット間の共通性を利用してグローバルモデルをトレーニングする分散学習フレームワークである。
パーソナライズド・フェデレーション・ラーニング(PFL)は、各クライアントに適した個々のモデルを学習することで、この問題に対処しようとしている。
我々は,グローバルな生成型分類器を局所的な特徴分布に適応させることで,パーソナライズされたモデルを効率的に生成するアルゴリズム,pFedFDAを提案する。
論文 参考訳(メタデータ) (2024-11-01T03:03:52Z) - Accelerated Stochastic ExtraGradient: Mixing Hessian and Gradient Similarity to Reduce Communication in Distributed and Federated Learning [50.382793324572845]
分散コンピューティングはデバイス間の通信を伴うため、効率性とプライバシという2つの重要な問題を解決する必要がある。
本稿では,データ類似性とクライアントサンプリングのアイデアを取り入れた新しい手法について分析する。
プライバシー問題に対処するために,付加雑音の手法を適用し,提案手法の収束への影響を解析する。
論文 参考訳(メタデータ) (2024-09-22T00:49:10Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Cross-Silo Federated Learning Across Divergent Domains with Iterative Parameter Alignment [4.95475852994362]
フェデレートラーニング(Federated Learning)は、リモートクライアント間で機械学習モデルをトレーニングする手法である。
我々は、共通の目的のために最適化されたNモデルを学ぶために、典型的な連合学習環境を再構築する。
この技術は、最先端のアプローチと比較して、様々なデータパーティションにおける競合的な結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-11-08T16:42:14Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - A Personalized Federated Learning Algorithm: an Application in Anomaly
Detection [0.6700873164609007]
フェデレートラーニング(FL)は、データプライバシと送信問題を克服する有望な方法として最近登場した。
FLでは、異なるデバイスやセンサーから収集されたデータセットを使用して、各学習を集中型モデル(サーバ)と共有するローカルモデル(クライアント)をトレーニングする。
本稿では,PC-FedAvg(Personalized FedAvg, PC-FedAvg)を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:57:11Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Think Locally, Act Globally: Federated Learning with Local and Global
Representations [92.68484710504666]
フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
論文 参考訳(メタデータ) (2020-01-06T12:40:21Z) - Robust Federated Learning Through Representation Matching and Adaptive
Hyper-parameters [5.319361976450981]
フェデレーション学習(Federated Learning)は、複数のクライアントに属するデータに対して単一のモデルをトレーニングする、分散されたプライバシ対応の学習シナリオである。
現在のフェデレーション学習手法は、異種クライアント側データ分散に苦慮している。
本稿では,局所モデルのばらつきを低減する表現マッチング手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T20:19:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。