論文の概要: FL-AGCNS: Federated Learning Framework for Automatic Graph Convolutional
Network Search
- arxiv url: http://arxiv.org/abs/2104.04141v1
- Date: Fri, 9 Apr 2021 01:42:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 13:53:56.185067
- Title: FL-AGCNS: Federated Learning Framework for Automatic Graph Convolutional
Network Search
- Title(参考訳): FL-AGCNS:グラフ畳み込みネットワーク検索のためのフェデレーション学習フレームワーク
- Authors: Chunnan Wang, Bozhou Chen, Geng Li, Hongzhi Wang
- Abstract要約: 本稿では,フェデレートラーニングシナリオに適したGCN NASアルゴリズムであるFL-AG CNSを提案する。
GCN SuperNetと重量共有戦略を適用し、GCNモデルの評価をスピードアップします。
実験の結果,FL-AG CNSは短時間で優れたGCNモデルを見出すことができた。
- 参考スコア(独自算出の注目度): 5.543867614999908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, some Neural Architecture Search (NAS) techniques are proposed for
the automatic design of Graph Convolutional Network (GCN) architectures. They
bring great convenience to the use of GCN, but could hardly apply to the
Federated Learning (FL) scenarios with distributed and private datasets, which
limit their applications. Moreover, they need to train many candidate GCN
models from scratch, which is inefficient for FL. To address these challenges,
we propose FL-AGCNS, an efficient GCN NAS algorithm suitable for FL scenarios.
FL-AGCNS designs a federated evolutionary optimization strategy to enable
distributed agents to cooperatively design powerful GCN models while keeping
personal information on local devices. Besides, it applies the GCN SuperNet and
a weight sharing strategy to speed up the evaluation of GCN models.
Experimental results show that FL-AGCNS can find better GCN models in short
time under the FL framework, surpassing the state-of-the-arts NAS methods and
GCN models.
- Abstract(参考訳): 近年,グラフ畳み込みネットワーク (gcn) アーキテクチャの自動設計のためのニューラルネットワーク探索 (nas) 手法が提案されている。
それらはGCNの使用に非常に便利であるが、アプリケーションを制限する分散データセットとプライベートデータセットを備えたフェデレートラーニング(FL)のシナリオには、ほとんど適用できなかった。
さらに、多くの候補GCNモデルをスクラッチからトレーニングする必要がある。
FLシナリオに適したGCN NASアルゴリズムであるFL-AGCNSを提案する。
fl-agcnsは、分散エージェントがローカルデバイス上で個人情報を保持しながら強力なgcnモデルを協調的に設計できるように、連合進化最適化戦略を設計する。
さらに、GCN SuperNetと重み共有戦略を適用して、GCNモデルの評価を高速化する。
実験の結果,FL-AGCNSは,最先端NAS法やGCNモデルよりも早く,短時間で優れたGCNモデルを見出すことができた。
関連論文リスト
- DiffusionNAG: Predictor-guided Neural Architecture Generation with Diffusion Models [56.584561770857306]
本研究では拡散モデルに基づく新しい条件付きニューラルネットワーク生成(NAG)フレームワークDiffusionNAGを提案する。
具体的には、ニューラルネットワークを有向グラフとみなし、それらを生成するためのグラフ拡散モデルを提案する。
本研究では,2つの予測型NAS(Transferable NAS)とベイズ最適化(BO)に基づくNAS(Bayesian Optimization)の2つのシナリオにおいて,DiffusionNAGの有効性を検証する。
BOベースのアルゴリズムに統合されると、DiffusionNAGは既存のBOベースのNASアプローチ、特にImageNet 1Kデータセット上の大規模なMobileNetV3検索スペースよりも優れている。
論文 参考訳(メタデータ) (2023-05-26T13:58:18Z) - BNS-GCN: Efficient Full-Graph Training of Graph Convolutional Networks
with Boundary Node Sampling [25.32242812045678]
本稿では,BNS-GCNという,ランダム境界ノードサンプリングを併用して,効率よくスケーラブルな分散GCNトレーニングを実現する,シンプルで効果的なBNS-GCNを提案する。
BNS-GCNの有効性を一貫して検証し、スループットを最大16.2倍にし、メモリ使用量を最大58%削減し、フルグラフの精度を維持した。
論文 参考訳(メタデータ) (2022-03-21T13:44:37Z) - Multi-scale Graph Convolutional Networks with Self-Attention [2.66512000865131]
グラフ畳み込みネットワーク(GCN)は,様々なグラフ構造データを扱うための優れた学習能力を実現している。
GCNsの重要な問題として, 過平滑化現象が解決され, 検討が続けられている。
本稿では,GCNの設計に自己認識機構とマルチスケール情報を取り入れた2つの新しいマルチスケールGCNフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-04T04:41:24Z) - Automated Graph Learning via Population Based Self-Tuning GCN [45.28411311903644]
グラフ畳み込みネットワーク(GCN)とその変種は、幅広いタスクにうまく適用されている。
従来のGCNモデルはオーバーフィッティングとオーバースムーシングの問題に悩まされている。
DropEdgeのような最近の技術はこれらの問題を緩和し、ディープGCNの開発を可能にする。
論文 参考訳(メタデータ) (2021-07-09T23:05:21Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - Graph Convolutional Networks for Hyperspectral Image Classification [36.174209668206146]
我々は、ハイパースペクトル(HS)画像分類の観点から、CNNとGCN(Graph Convolutional Network)について検討する。
我々は,大規模GCNをミニバッチ方式で訓練できる新しいミニバッチGCNを開発した。
我々のミニGCNは、ネットワークを再トレーニングすることなくサンプル外データを推測し、分類性能を向上させることができる。
論文 参考訳(メタデータ) (2020-08-06T05:01:25Z) - AM-GCN: Adaptive Multi-channel Graph Convolutional Networks [85.0332394224503]
グラフ畳み込みネットワーク(GCN)は,豊富な情報を持つ複雑なグラフにおいて,ノードの特徴と位相構造を最適に統合できるかどうかを検討する。
半教師付き分類(AM-GCN)のための適応型マルチチャネルグラフ畳み込みネットワークを提案する。
実験の結果,AM-GCNはノードの特徴とトポロジ的構造の両方から最も相関性の高い情報を抽出することがわかった。
論文 参考訳(メタデータ) (2020-07-05T08:16:03Z) - Simple and Deep Graph Convolutional Networks [63.76221532439285]
グラフ畳み込みネットワーク(GCN)は、グラフ構造化データに対する強力なディープラーニングアプローチである。
その成功にもかかわらず、現在のGCNモデルは、エムの過度に滑らかな問題のため、ほとんどが浅くなっている。
本稿では,2つの単純かつ効果的な手法を用いて,バニラGCNモデルを拡張したGCNIIを提案する。
論文 参考訳(メタデータ) (2020-07-04T16:18:06Z) - L$^2$-GCN: Layer-Wise and Learned Efficient Training of Graph
Convolutional Networks [118.37805042816784]
グラフ畳み込みネットワーク(GCN)は、多くのアプリケーションで人気が高まっているが、大きなグラフデータセットをトレーニングするのは依然として難しい。
本稿では,GCN (L-GCN) のための新しいレイヤワイドトレーニングフレームワークを提案する。
実験の結果、L-GCNは少なくとも1桁の精度で最先端よりも高速であり、メモリ使用量はデータセットのサイズに依存しないことがわかった。
論文 参考訳(メタデータ) (2020-03-30T16:37:56Z) - Feedback Graph Convolutional Network for Skeleton-based Action
Recognition [38.782491442635205]
フィードバックグラフ畳み込みネットワーク(FGCN)という新しいネットワークを提案する。
これは、GCNとアクション認識にフィードバックメカニズムを導入する最初の作業である。
3つのデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-03-17T07:20:47Z) - LightGCN: Simplifying and Powering Graph Convolution Network for
Recommendation [100.76229017056181]
Graph Convolution Network (GCN)は、協調フィルタリングのための新しい最先端技術となった。
本研究は,GCNの設計を簡略化し,より簡潔かつ適切なレコメンデーションを実現することを目的としている。
我々は,光GCNと呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-02-06T06:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。