論文の概要: Federated Graph Learning -- A Position Paper
- arxiv url: http://arxiv.org/abs/2105.11099v1
- Date: Mon, 24 May 2021 05:39:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 14:49:17.476148
- Title: Federated Graph Learning -- A Position Paper
- Title(参考訳): フェデレーショングラフ学習 --位置用紙-
- Authors: Huanding Zhang, Tao Shen, Fei Wu, Mingyang Yin, Hongxia Yang, Chao Wu
- Abstract要約: フェデレートラーニング(FL)は、データを分散化しながら共有モデルを協調的にトレーニングできる新興技術である。
これをFGL(Federated Graph Learning)と呼ぶ。
クライアント間でグラフデータを分散する方法を考慮し、グラフ間FL、グラフ内FL、グラフ構造化FLの4種類のFGLを提案する。
- 参考スコア(独自算出の注目度): 36.424411232612606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNN) have been successful in many fields, and derived
various researches and applications in real industries. However, in some
privacy sensitive scenarios (like finance, healthcare), training a GNN model
centrally faces challenges due to the distributed data silos. Federated
learning (FL) is a an emerging technique that can collaboratively train a
shared model while keeping the data decentralized, which is a rational solution
for distributed GNN training. We term it as federated graph learning (FGL).
Although FGL has received increasing attention recently, the definition and
challenges of FGL is still up in the air. In this position paper, we present a
categorization to clarify it. Considering how graph data are distributed among
clients, we propose four types of FGL: inter-graph FL, intra-graph FL and
graph-structured FL, where intra-graph is further divided into horizontal and
vertical FGL. For each type of FGL, we make a detailed discussion about the
formulation and applications, and propose some potential challenges.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は多くの分野で成功し、実業界における様々な研究や応用を導出した。
しかし、いくつかのプライバシーに敏感なシナリオ(金融や医療など)では、gnnモデルのトレーニングは分散データサイロによる課題の中心に直面している。
フェデレートラーニング(FL)は、分散GNNトレーニングのための合理的なソリューションであるデータを分散化しつつ、共有モデルを協調的にトレーニングできる新興技術である。
これをFGL(Federated Graph Learning)と呼ぶ。
FGLは近年注目されているが、FGLの定義と課題はまだ未解決のままである。
本稿では,その特徴を明らかにするための分類について述べる。
グラフデータをクライアント間で分散する方法を考慮し、グラフ間FL、グラフ間FL、グラフ構造FLの4種類のFGLを提案し、グラフ内FLをさらに水平と垂直に分割する。
各種類のFGLについて、定式化と応用について詳細な議論を行い、潜在的な課題を提案する。
関連論文リスト
- Federated Graph Learning with Graphless Clients [52.5629887481768]
FGL(Federated Graph Learning)は、グラフニューラルネットワーク(GNN)などの機械学習モデルをトレーニングするタスクである。
グラフレスクライアントを用いたFGLにおける問題に対処するための新しいフレームワークFedGLSを提案する。
論文 参考訳(メタデータ) (2024-11-13T06:54:05Z) - OpenFGL: A Comprehensive Benchmarks for Federated Graph Learning [36.04858706246336]
Federated Graph Learning(FGL)は、直接データ共有なしで複数のローカルシステムにまたがるグラフニューラルネットワークのための、有望な分散トレーニングパラダイムとして登場した。
FGLの普及にもかかわらず、様々な研究背景と実験環境にまたがる実践的応用からの多様なモチベーションは、公正な評価に重大な課題をもたらす。
本稿では,主要なFGLシナリオであるGraph-FLとSubgraph-FLのための統一ベンチマークOpenFGLを提案する。
論文 参考訳(メタデータ) (2024-08-29T06:40:01Z) - Federated Graph Learning with Structure Proxy Alignment [43.13100155569234]
Federated Graph Learning (FGL)は、複数のデータ所有者に分散されたグラフデータよりもグラフ学習モデルを学習することを目的としている。
我々はFedSprayを提案する。FedSprayは、潜伏空間における局所的なクラスワイド構造プロキシを学習する新しいFGLフレームワークである。
我々のゴールは、ノード分類のための信頼性が高く、偏りのない隣り合う情報として機能する、整列構造プロキシを得ることです。
論文 参考訳(メタデータ) (2024-08-18T07:32:54Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - FedHGN: A Federated Framework for Heterogeneous Graph Neural Networks [45.94642721490744]
不均一グラフニューラルネットワーク(HGNN)は、従来のGNNよりも、型付きグラフデータやリレーショナルグラフデータからより効果的に学習することができる。
より大きなパラメータ空間では、HGNNはより多くのトレーニングデータを必要とする可能性がある。
我々は,HGNNのための新規かつ汎用的なFGLフレームワークであるFedHGNを提案する。
論文 参考訳(メタデータ) (2023-05-16T18:01:49Z) - GLASU: A Communication-Efficient Algorithm for Federated Learning with
Vertically Distributed Graph Data [44.02629656473639]
本稿では,クライアントとサーバ間でバックボーンGNNを分割するモデル分割手法と通信効率のよいGLASUを提案する。
提案アルゴリズムは,実世界のデータセットに対する理論的解析と広範な数値実験を行い,中央集権的な学習を行うと,バックボーンのGNNと性能が一致するGNNモデルを効果的に訓練することを示した。
論文 参考訳(メタデータ) (2023-03-16T17:47:55Z) - Personalized Subgraph Federated Learning [56.52903162729729]
本稿では,新たなサブグラフFL問題,パーソナライズされたサブグラフFLを導入する。
本稿では,Federated Personalized sUBgraph Learning (FED-PUB)を提案する。
オーバーラップしないサブグラフとオーバーラップするサブグラフの両方を考慮して,FED-PUBのサブグラフFL性能を6つのデータセットで検証した。
論文 参考訳(メタデータ) (2022-06-21T09:02:53Z) - Graph-level Neural Networks: Current Progress and Future Directions [61.08696673768116]
グラフレベルのニューラルネットワーク(GLNN、ディープラーニングベースのグラフレベルの学習法)は、高次元データのモデリングにおいて優れているため、魅力的である。
本稿では,深層ニューラルネットワーク,グラフニューラルネットワーク,グラフプール上でのGLNNを網羅する系統分類法を提案する。
論文 参考訳(メタデータ) (2022-05-31T06:16:55Z) - FedGL: Federated Graph Learning Framework with Global Self-Supervision [22.124339267195822]
FedGLは、データプライバシを保護しながら、高品質なグローバルグラフモデルを取得することができる。
グローバルなセルフスーパービジョンにより、各クライアントの情報がプライバシー保護の方法で流れて共有できます。
論文 参考訳(メタデータ) (2021-05-07T11:27:23Z) - GraphFL: A Federated Learning Framework for Semi-Supervised Node
Classification on Graphs [48.13100386338979]
グラフ上の半教師付きノード分類のための最初のFLフレームワークであるGraphFLを提案する。
本稿では,グラフデータの非IID問題に対処する2つのGraphFL法を提案し,そのタスクを新しいラベルドメインで処理する。
代表グラフニューラルネットワークをGraphSSC法として採用し,複数のグラフデータセット上でGraphFLを評価する。
論文 参考訳(メタデータ) (2020-12-08T03:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。