論文の概要: FedGL: Federated Graph Learning Framework with Global Self-Supervision
- arxiv url: http://arxiv.org/abs/2105.03170v1
- Date: Fri, 7 May 2021 11:27:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 12:27:30.057504
- Title: FedGL: Federated Graph Learning Framework with Global Self-Supervision
- Title(参考訳): FedGL: グローバルな自己スーパービジョンを備えたフェデレーショングラフ学習フレームワーク
- Authors: Chuan Chen, Weibo Hu, Ziyue Xu, Zibin Zheng
- Abstract要約: FedGLは、データプライバシを保護しながら、高品質なグローバルグラフモデルを取得することができる。
グローバルなセルフスーパービジョンにより、各クライアントの情報がプライバシー保護の方法で流れて共有できます。
- 参考スコア(独自算出の注目度): 22.124339267195822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph data are ubiquitous in the real world. Graph learning (GL) tries to
mine and analyze graph data so that valuable information can be discovered.
Existing GL methods are designed for centralized scenarios. However, in
practical scenarios, graph data are usually distributed in different
organizations, i.e., the curse of isolated data islands. To address this
problem, we incorporate federated learning into GL and propose a general
Federated Graph Learning framework FedGL, which is capable of obtaining a
high-quality global graph model while protecting data privacy by discovering
the global self-supervision information during the federated training.
Concretely, we propose to upload the prediction results and node embeddings to
the server for discovering the global pseudo label and global pseudo graph,
which are distributed to each client to enrich the training labels and
complement the graph structure respectively, thereby improving the quality of
each local model. Moreover, the global self-supervision enables the information
of each client to flow and share in a privacy-preserving manner, thus
alleviating the heterogeneity and utilizing the complementarity of graph data
among different clients. Finally, experimental results show that FedGL
significantly outperforms baselines on four widely used graph datasets.
- Abstract(参考訳): グラフデータは現実世界ではどこにでもある。
グラフ学習(gl)は、貴重な情報を発見できるようにグラフデータのマイニングと分析を試みます。
既存のGLメソッドは集中型シナリオ用に設計されている。
しかし、実際のシナリオでは、グラフデータは、通常、異なる組織、すなわち分離されたデータアイランドの呪いに分散される。
この問題を解決するために,glにフェデレート学習を取り入れ,フェデレーショントレーニング中にグローバル自己スーパービジョン情報を発見し,データプライバシを保護しつつ,高品質なグローバルグラフモデルを得ることができる汎用フェデレーショングラフ学習フレームワークfeedglを提案する。
具体的には,予測結果とノード埋め込み結果をサーバにアップロードして,各クライアントに分散してトレーニングラベルを充実させ,グラフ構造を補完するグローバル擬似ラベルとグローバル擬似グラフを発見し,各ローカルモデルの品質を向上させることを提案する。
さらに、グローバルなセルフスーパービジョンにより、各クライアントの情報がプライバシ保護方式で流れ共有され、不均一性を緩和し、異なるクライアント間のグラフデータの相補性を利用することができる。
最後に、実験結果から、FedGLは4つの広く使用されているグラフデータセットのベースラインを大幅に上回ることが示された。
関連論文リスト
- OpenFGL: A Comprehensive Benchmarks for Federated Graph Learning [36.04858706246336]
Federated Graph Learning(FGL)は、直接データ共有なしで複数のローカルシステムにまたがるグラフニューラルネットワークのための、有望な分散トレーニングパラダイムとして登場した。
FGLの普及にもかかわらず、様々な研究背景と実験環境にまたがる実践的応用からの多様なモチベーションは、公正な評価に重大な課題をもたらす。
本稿では,主要なFGLシナリオであるGraph-FLとSubgraph-FLのための統一ベンチマークOpenFGLを提案する。
論文 参考訳(メタデータ) (2024-08-29T06:40:01Z) - Federated Graph Learning with Structure Proxy Alignment [43.13100155569234]
Federated Graph Learning (FGL)は、複数のデータ所有者に分散されたグラフデータよりもグラフ学習モデルを学習することを目的としている。
我々はFedSprayを提案する。FedSprayは、潜伏空間における局所的なクラスワイド構造プロキシを学習する新しいFGLフレームワークである。
我々のゴールは、ノード分類のための信頼性が高く、偏りのない隣り合う情報として機能する、整列構造プロキシを得ることです。
論文 参考訳(メタデータ) (2024-08-18T07:32:54Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Graph Learning Across Data Silos [12.343382413705394]
本稿では,スムーズなグラフ信号からグラフトポロジを推定する問題を考える。
データは分散クライアントにあり、プライバシー上の懸念などの要因により、ローカルクライアントを去ることは禁じられている。
本稿では,各ローカルクライアントに対してパーソナライズされたグラフと,全クライアントに対して単一のコンセンサスグラフを共同で学習する,自動重み付き多重グラフ学習モデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T02:14:57Z) - DYNAFED: Tackling Client Data Heterogeneity with Global Dynamics [60.60173139258481]
非イド分散データに対する局所訓練は、偏向局所最適化をもたらす。
自然な解決策は、サーバがデータ分散全体のグローバルなビューを持つように、すべてのクライアントデータをサーバに収集することです。
本稿では,データプライバシを損なうことなく,サーバ上でのグローバルな知識の収集と活用を図る。
論文 参考訳(メタデータ) (2022-11-20T06:13:06Z) - FedEgo: Privacy-preserving Personalized Federated Graph Learning with
Ego-graphs [22.649780281947837]
いくつかの実践的なシナリオでは、グラフデータは複数の分散パーティに別々に格納されます。
上記の課題に対処するために,egoグラフに基づくフェデレーショングラフ学習フレームワークであるFedEgoを提案する。
論文 参考訳(メタデータ) (2022-08-29T15:47:36Z) - Graph Representation Learning via Contrasting Cluster Assignments [57.87743170674533]
GRCCAと呼ばれるクラスタ割り当てを対比して、教師なしグラフ表現モデルを提案する。
クラスタリングアルゴリズムとコントラスト学習を組み合わせることで、局所的およびグローバルな情報を合成的にうまく活用する動機付けがある。
GRCCAは、ほとんどのタスクにおいて強力な競争力を持っている。
論文 参考訳(メタデータ) (2021-12-15T07:28:58Z) - Tackling the Local Bias in Federated Graph Learning [48.887310972708036]
フェデレーショングラフ学習(FGL)では、グローバルグラフは異なるクライアントに分散し、各クライアントがサブグラフを保持する。
既存のFGL手法では、クロスクライアントエッジを効果的に活用できず、トレーニング中に構造情報が失われる。
集中型環境で訓練されたモデルと類似した局所モデルを作成するための新しいFGLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-22T08:22:36Z) - Self-supervised Graph-level Representation Learning with Local and
Global Structure [71.45196938842608]
自己教師付き全グラフ表現学習のためのローカル・インスタンスとグローバル・セマンティック・ラーニング(GraphLoG)という統合フレームワークを提案する。
GraphLoGは、局所的な類似点の保存に加えて、グローバルなセマンティッククラスタをキャプチャする階層的なプロトタイプも導入している。
モデル学習のための効率的なオンライン予測最大化(EM)アルゴリズムがさらに開発された。
論文 参考訳(メタデータ) (2021-06-08T05:25:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。