論文の概要: Cluster-driven Graph Federated Learning over Multiple Domains
- arxiv url: http://arxiv.org/abs/2104.14628v1
- Date: Thu, 29 Apr 2021 19:31:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 13:49:41.589009
- Title: Cluster-driven Graph Federated Learning over Multiple Domains
- Title(参考訳): 複数のドメイン上でのクラスタ駆動グラフフェデレーション学習
- Authors: Debora Caldarola, Massimiliano Mancini, Fabio Galasso, Marco Ciccone,
Emanuele Rodol\`a, Barbara Caputo
- Abstract要約: グラフフェデレーション学習(FL)は、中央モデル(すなわち、学習)を扱う。
サーバ) プライバシに制約されたシナリオ。
本稿では,クラスタ型グラフフェデレーション学習(FedCG)を提案する。
- 参考スコア(独自算出の注目度): 25.51716405561116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) deals with learning a central model (i.e. the server)
in privacy-constrained scenarios, where data are stored on multiple devices
(i.e. the clients). The central model has no direct access to the data, but
only to the updates of the parameters computed locally by each client. This
raises a problem, known as statistical heterogeneity, because the clients may
have different data distributions (i.e. domains). This is only partly
alleviated by clustering the clients. Clustering may reduce heterogeneity by
identifying the domains, but it deprives each cluster model of the data and
supervision of others. Here we propose a novel Cluster-driven Graph Federated
Learning (FedCG). In FedCG, clustering serves to address statistical
heterogeneity, while Graph Convolutional Networks (GCNs) enable sharing
knowledge across them. FedCG: i) identifies the domains via an FL-compliant
clustering and instantiates domain-specific modules (residual branches) for
each domain; ii) connects the domain-specific modules through a GCN at training
to learn the interactions among domains and share knowledge; and iii) learns to
cluster unsupervised via teacher-student classifier-training iterations and to
address novel unseen test domains via their domain soft-assignment scores.
Thanks to the unique interplay of GCN over clusters, FedCG achieves the
state-of-the-art on multiple FL benchmarks.
- Abstract(参考訳): フェデレートラーニング(FL)は、中央モデル(すなわち、学習モデル)を扱う。
プライバシに制約のあるシナリオでは、データは複数のデバイス(つまり)に格納される。
クライアント)。
中央モデルにはデータへの直接アクセスはなく、各クライアントがローカルに計算したパラメータの更新のみである。
これは、クライアントが異なるデータ分布(すなわち、異なるデータ分布)を持つため、統計的不均一性と呼ばれる問題を引き起こす。
ドメイン)。
これはクライアントのクラスタ化によって部分的に緩和されるだけである。
クラスタリングはドメインを識別することで異質性を低下させるが、データのクラスタモデルや他者の監視を損なう。
本稿では,クラスタ駆動グラフフェデレーション学習(FedCG)を提案する。
FedCGでは、クラスタリングは統計的不均一性に対応するのに役立ち、グラフ畳み込みネットワーク(GCN)はそれらの間の知識の共有を可能にする。
FedCG: i) FL準拠のクラスタリングを通じてドメインを特定し、各ドメインのドメイン固有のモジュール(残留ブランチ)をインスタンス化し、i) ドメイン間の相互作用を学び、知識を共有するためのトレーニングにおいてGCNを介してドメイン固有のモジュールを接続する。
クラスタ上のGCNのユニークな相互作用のおかげで、FedCGは複数のFLベンチマークの最先端を実現している。
関連論文リスト
- Federated Clustering: An Unsupervised Cluster-Wise Training for Decentralized Data Distributions [1.6385815610837167]
Federated Cluster-Wise Refinement(FedCRef)には、同様のデータ分散を備えたクラスタ上でモデルを協調的にトレーニングするクライアントが含まれている。
これらのグループでは、クライアントは、各データ分布を表す共有モデルを共同でトレーニングし、データの関連性を高めるために、ローカルクラスタを継続的に精錬する。
この反復的処理により,ネットワーク全体にわたる潜在的なデータ分布を同定し,それぞれにロバストな表現モデルを構築することができる。
論文 参考訳(メタデータ) (2024-08-20T09:05:44Z) - Federated Graph Learning with Structure Proxy Alignment [43.13100155569234]
Federated Graph Learning (FGL)は、複数のデータ所有者に分散されたグラフデータよりもグラフ学習モデルを学習することを目的としている。
我々はFedSprayを提案する。FedSprayは、潜伏空間における局所的なクラスワイド構造プロキシを学習する新しいFGLフレームワークである。
我々のゴールは、ノード分類のための信頼性が高く、偏りのない隣り合う情報として機能する、整列構造プロキシを得ることです。
論文 参考訳(メタデータ) (2024-08-18T07:32:54Z) - FedCCL: Federated Dual-Clustered Feature Contrast Under Domain Heterogeneity [43.71967577443732]
フェデレートラーニング(FL)は、エッジクライアントと中央サーバとのコラボレーションを通じて、プライバシ保護のニューラルネットワークトレーニングパラダイムを促進する。
最近の研究は、単に正規化の形式として平均的な信号を使い、これらの非IID課題の1つの側面にのみ焦点をあてることに限られている。
マルチクラスタ機能を持つコントラストベースのFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-14T13:56:30Z) - Federated Generalized Category Discovery [68.35420359523329]
一般カテゴリー発見(GCD)は、未知のクラスからラベルのないサンプルをグループ化することを目的としている。
地域社会における近年の分権化の傾向に対応するため,フェデレーションGCD(Fed-GCD)という,実践的かつ困難な課題を導入する。
Fed-GCDの目標は、プライバシ保護された制約の下で、クライアントのコラボレーションによって汎用的なGCDモデルをトレーニングすることである。
論文 参考訳(メタデータ) (2023-05-23T14:27:41Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - Federated Learning with Domain Generalization [11.92860245410696]
フェデレートラーニング(Federated Learning)は、集中型サーバの助けを借りて、機械学習モデルを共同でトレーニングすることを可能にする。
実際には、複数のソースドメイン上でトレーニングされたモデルは、目に見えないターゲットドメイン上での一般化性能が劣る可能性がある。
我々は,フェデレート学習とドメイン一般化能力の両立を図り,FedADGを提案する。
論文 参考訳(メタデータ) (2021-11-20T01:02:36Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Exploring Category-Agnostic Clusters for Open-Set Domain Adaptation [138.29273453811945]
本稿では、カテゴリ非依存クラスタ(SE-CC)を対象ドメインのカテゴリ非依存クラスタと組み合わせた、新たなアーキテクチャを提案する。
クラスタリングは、対象ドメイン特有の基盤となるデータ空間構造を明らかにするカテゴリ非依存クラスタを得るために、ラベルなしのターゲットサンプルすべてにわたって実行される。
論文 参考訳(メタデータ) (2020-06-11T16:19:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。