論文の概要: ASFGNN: Automated Separated-Federated Graph Neural Network
- arxiv url: http://arxiv.org/abs/2011.03248v1
- Date: Fri, 6 Nov 2020 09:21:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 05:35:12.194712
- Title: ASFGNN: Automated Separated-Federated Graph Neural Network
- Title(参考訳): ASFGNN: 自動分離型グラフニューラルネットワーク
- Authors: Longfei Zheng, Jun Zhou, Chaochao Chen, Bingzhe Wu, Li Wang, Benyu
Zhang
- Abstract要約: 本稿では,ASFGNN学習パラダイムを提案する。
我々は,ベンチマークデータセットの実験を行い,ASFGNNが有望なフェデレーションGNNよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 17.817867271722093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have achieved remarkable performance by taking
advantage of graph data. The success of GNN models always depends on rich
features and adjacent relationships. However, in practice, such data are
usually isolated by different data owners (clients) and thus are likely to be
Non-Independent and Identically Distributed (Non-IID). Meanwhile, considering
the limited network status of data owners, hyper-parameters optimization for
collaborative learning approaches is time-consuming in data isolation
scenarios. To address these problems, we propose an Automated
Separated-Federated Graph Neural Network (ASFGNN) learning paradigm. ASFGNN
consists of two main components, i.e., the training of GNN and the tuning of
hyper-parameters. Specifically, to solve the data Non-IID problem, we first
propose a separated-federated GNN learning model, which decouples the training
of GNN into two parts: the message passing part that is done by clients
separately, and the loss computing part that is learnt by clients federally. To
handle the time-consuming parameter tuning problem, we leverage Bayesian
optimization technique to automatically tune the hyper-parameters of all the
clients. We conduct experiments on benchmark datasets and the results
demonstrate that ASFGNN significantly outperforms the naive federated GNN, in
terms of both accuracy and parameter-tuning efficiency.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,グラフデータを活用することで,優れたパフォーマンスを実現している。
GNNモデルの成功は、常にリッチな特徴と隣接した関係に依存する。
しかしながら、実際には、そのようなデータは、通常、異なるデータ所有者(クライアント)によって分離されるため、非独立かつ独立に分散(Non-IID)される可能性が高い。
一方、データ所有者のネットワーク状態の制限を考えると、協調学習アプローチのハイパーパラメータ最適化は、データ分離シナリオにおいて時間がかかります。
そこで本稿では,ASFGNN(Automated Separated-Federated Graph Neural Network)学習パラダイムを提案する。
ASFGNNは2つの主要コンポーネント、すなわちGNNのトレーニングとハイパーパラメータのチューニングで構成される。
具体的には、まず、GNNのトレーニングをクライアントが別々に行うメッセージパッシング部と、クライアントが連邦的に学習する損失計算部とに分離したGNN学習モデルを提案する。
時間を要するパラメータチューニング問題に対処するため,ベイズ最適化手法を用いて全クライアントのハイパーパラメータを自動的に調整する。
我々は,ベンチマークデータセットの実験を行い,ASFGNNは,精度とパラメータ調整効率の両方の観点から,有意なフェデレーションGNNよりも優れていることを示した。
関連論文リスト
- Unleash Graph Neural Networks from Heavy Tuning [33.948899558876604]
グラフニューラルネットワーク(GNN)は、グラフ型データ用に設計されたディープラーニングアーキテクチャである。
本稿では,光チューニングされた粗い探索中に保存されたチェックポイントから学習することで,高性能なGNNを直接生成するグラフ条件付き潜時拡散フレームワーク(GNN-Diff)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:23:47Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Graph Neural Network for Large-Scale Network Localization [35.29322617956428]
グラフニューラルネットワーク(GNN)は、機械学習のコンテキストにおいて構造化データの分類に使用される。
本研究では,古典的だが難解な非線形回帰問題,すなわちネットワークローカライゼーションにGNNを採用する。
まず、GNNは、精度、堅牢性、計算時間の観点から、大規模ネットワークローカライゼーションの最適解である可能性がある。
論文 参考訳(メタデータ) (2020-10-22T12:39:26Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Bayesian Graph Neural Networks with Adaptive Connection Sampling [62.51689735630133]
グラフニューラルネットワーク(GNN)における適応接続サンプリングのための統一的なフレームワークを提案する。
提案フレームワークは,深部GNNの過度なスムース化や過度に適合する傾向を緩和するだけでなく,グラフ解析タスクにおけるGNNによる不確実性の学習を可能にする。
論文 参考訳(メタデータ) (2020-06-07T07:06:35Z) - Vertically Federated Graph Neural Network for Privacy-Preserving Node
Classification [39.53937689989282]
VFGNNは、垂直分割されたデータの下でのプライバシー保護ノード分類タスクの学習パラダイムである。
プライベートなデータ関連の計算をデータホルダに残し、残りの計算を半正直なサーバに委譲します。
3つのベンチマークで実験を行い,VFGNNの有効性を実証した。
論文 参考訳(メタデータ) (2020-05-25T03:12:18Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。