論文の概要: Search For Deep Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2109.10047v1
- Date: Tue, 21 Sep 2021 09:24:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 14:33:54.840918
- Title: Search For Deep Graph Neural Networks
- Title(参考訳): ディープグラフニューラルネットワークの探索
- Authors: Guosheng Feng, Chunnan Wang, Hongzhi Wang
- Abstract要約: 現在のGNN指向NAS法は、浅い単純なアーキテクチャを持つ異なる層集約コンポーネントの探索に重点を置いている。
本稿では,新しい2段階探索空間を持つGNN生成パイプラインを提案する。
実世界のデータセットの実験では、生成したGNNモデルは、既存の手動設計やNASベースのモデルよりも優れています。
- 参考スコア(独自算出の注目度): 4.3002928862077825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current GNN-oriented NAS methods focus on the search for different layer
aggregate components with shallow and simple architectures, which are limited
by the 'over-smooth' problem. To further explore the benefits from structural
diversity and depth of GNN architectures, we propose a GNN generation pipeline
with a novel two-stage search space, which aims at automatically generating
high-performance while transferable deep GNN models in a block-wise manner.
Meanwhile, to alleviate the 'over-smooth' problem, we incorporate multiple
flexible residual connection in our search space and apply identity mapping in
the basic GNN layers. For the search algorithm, we use deep-q-learning with
epsilon-greedy exploration strategy and reward reshaping. Extensive experiments
on real-world datasets show that our generated GNN models outperforms existing
manually designed and NAS-based ones.
- Abstract(参考訳): 現在のgnn指向のnas法は、浅いアーキテクチャと単純なアーキテクチャを持つ異なるレイヤアグリゲートコンポーネントの探索に焦点を当てている。
GNNアーキテクチャの構造的多様性と深度から得られるメリットをさらに探求するため、ブロックワイズ方式で高性能かつ転送可能な深部GNNモデルを自動生成することを目的とした、新しい2段階探索空間を備えたGNN生成パイプラインを提案する。
一方,オーバースムース(over-smooth)問題を緩和するために,検索空間に複数のフレキシブルな残差接続を組み込んで,基本gnn層にidマッピングを適用する。
探索アルゴリズムでは,epsilon-greedy exploration strategy と reward reshaping を用いたdeep-q-learning を用いる。
実世界のデータセットに対する大規模な実験により、生成したGNNモデルは、既存の手動設計やNASベースのモデルよりも優れています。
関連論文リスト
- Multicoated and Folded Graph Neural Networks with Strong Lottery Tickets [3.0894823679470087]
本稿では,アーキテクチャとパラメータの両面から検索空間を拡張するためのマルチステージ・フォールディング法とアンシャレッド・マスク法を提案する。
高空間性、競争性能、高メモリ効率を最大98.7%の削減で達成することにより、エネルギー効率の高いグラフ処理に適していることを示す。
論文 参考訳(メタデータ) (2023-12-06T02:16:44Z) - Automated Search-Space Generation Neural Architecture Search [45.902445271519596]
ASGNASは1ショット方式で高性能サブネットワークを生成する。
ASGNASは人間の努力を最小限にするために3つの顕著な貢献をしている。
ライブラリはhttps://github.com/tianyic/tianyic/only_train_once.comでリリースされる。
論文 参考訳(メタデータ) (2023-05-25T19:41:40Z) - Designing the Topology of Graph Neural Networks: A Novel Feature Fusion
Perspective [12.363386808994079]
我々は,F$2$GNNと呼ばれる新しい機能融合の観点から,GNNのトポロジを設計することを学ぶ。
本研究では,選択操作と融合操作を含む統合フレームワーク上でのニューラルネットワーク探索手法を提案する。
8つの実世界のデータセットのパフォーマンス向上は、F$2$GNNの有効性を示している。
論文 参考訳(メタデータ) (2021-12-29T13:06:12Z) - Edge-featured Graph Neural Architecture Search [131.4361207769865]
最適GNNアーキテクチャを見つけるために,エッジ機能付きグラフニューラルアーキテクチャ探索を提案する。
具体的には、高次表現を学習するためにリッチなエンティティとエッジの更新操作を設計する。
EGNASは、現在最先端の人間設計および検索されたGNNよりも高い性能で、より優れたGNNを検索できることを示す。
論文 参考訳(メタデータ) (2021-09-03T07:53:18Z) - Search to aggregate neighborhood for graph neural network [47.47628113034479]
そこで本研究では,データ固有のGNNアーキテクチャを自動的に設計するためのフレームワークとして,SANE(Search to Aggregate NEighborhood)を提案する。
新規で表現力のある検索空間を設計することにより,従来の強化学習法よりも効率的である微分可能な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-14T03:15:19Z) - Rethinking Graph Neural Network Search from Message-passing [120.62373472087651]
本稿では,新しい検索空間を設計したグラフニューラルアーキテクチャサーチ(GNAS)を提案する。
グラフニューラルアーキテクチャパラダイム(GAP:Graph Neural Architecture Paradigm)をツリートポロジー計算手順と2種類の微粒原子操作で設計します。
実験では、GNASは複数のメッセージ通過機構と最適なメッセージ通過深さを持つより良いGNNを探索できることを示しています。
論文 参考訳(メタデータ) (2021-03-26T06:10:41Z) - Simplifying Architecture Search for Graph Neural Network [38.45540097927176]
本稿では,新しい探索空間と強化学習に基づく探索アルゴリズムからなるSNAGフレームワークを提案する。
実世界のデータセットを用いた実験は、人間設計のGNNやNAS手法と比較してSNAGフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2020-08-26T16:24:03Z) - Neural Architecture Search as Sparse Supernet [78.09905626281046]
本稿では,単一パスと複数パスの探索から混合パスの自動探索へ,ニューラルネットワーク探索(NAS)の問題を拡大することを目的とする。
我々はNAS問題をスパース・スーパーネットとして,空間制約を混合した新しい連続アーキテクチャ表現を用いてモデル化する。
スパーススーパーネットは、コンパクトなノードセット上でスパース混合パスを自動的に達成する。
論文 参考訳(メタデータ) (2020-07-31T14:51:52Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - Graph Neural Networks for Motion Planning [108.51253840181677]
低次元問題に対する高密度固定グラフ上のGNNと高次元問題に対するサンプリングベースGNNの2つの手法を提案する。
RRT(Rapidly-Exploring Random Trees)におけるクリティカルノードの特定やサンプリング分布の学習といった計画上の問題にGNNが取り組む能力について検討する。
臨界サンプリング、振り子、6つのDoFロボットアームによる実験では、GNNは従来の分析手法の改善だけでなく、完全に接続されたニューラルネットワークや畳み込みニューラルネットワークを用いた学習アプローチも示している。
論文 参考訳(メタデータ) (2020-06-11T08:19:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。