論文の概要: DFG-NAS: Deep and Flexible Graph Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2206.08582v1
- Date: Fri, 17 Jun 2022 06:47:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 14:34:03.098837
- Title: DFG-NAS: Deep and Flexible Graph Neural Architecture Search
- Title(参考訳): dfg-nas: 深く柔軟なグラフニューラルネットワーク検索
- Authors: Wentao Zhang, Zheyu Lin, Yu Shen, Yang Li, Zhi Yang, Bin Cui
- Abstract要約: 本稿では,非常に深く柔軟なGNNアーキテクチャの自動探索を可能にする新しいニューラルアーキテクチャ探索(NAS)手法であるDFG-NASを提案する。
DFG-NASは、原子伝播(textbftexttP)と変換(textbftexttT)の操作がどのように統合され、GNNに組織化されるかに関するマクロ構造を探索する。
4つのノード分類タスクに関する実証的研究は、DFG-NASがGNNの最先端手動設計やNASメソッドより優れていることを示している。
- 参考スコア(独自算出の注目度): 27.337894841649494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have been intensively applied to various
graph-based applications. Despite their success, manually designing the
well-behaved GNNs requires immense human expertise. And thus it is inefficient
to discover the potentially optimal data-specific GNN architecture. This paper
proposes DFG-NAS, a new neural architecture search (NAS) method that enables
the automatic search of very deep and flexible GNN architectures. Unlike most
existing methods that focus on micro-architectures, DFG-NAS highlights another
level of design: the search for macro-architectures on how atomic propagation
(\textbf{\texttt{P}}) and transformation (\textbf{\texttt{T}}) operations are
integrated and organized into a GNN. To this end, DFG-NAS proposes a novel
search space for \textbf{\texttt{P-T}} permutations and combinations based on
message-passing dis-aggregation, defines four custom-designed
macro-architecture mutations, and employs the evolutionary algorithm to conduct
an efficient and effective search. Empirical studies on four node
classification tasks demonstrate that DFG-NAS outperforms state-of-the-art
manual designs and NAS methods of GNNs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、様々なグラフベースのアプリケーションに強く適用されている。
彼らの成功にもかかわらず、身近なGNNを手動で設計するには膨大な専門知識が必要である。
したがって、潜在的に最適なデータ固有のGNNアーキテクチャを見つけることは非効率である。
本稿では,非常に深く柔軟なGNNアーキテクチャの自動探索を可能にする新しいニューラルアーキテクチャ探索(NAS)手法であるDFG-NASを提案する。
既存のマイクロアーキテクチャにフォーカスした手法と異なり、dfg-nasは別のレベルの設計を強調する: 原子伝搬(\textbf{\textt{p}})と変換(\textbf{\textt{t}})の操作がgnnに統合され組織化される方法に関するマクロアーキテクチャの探索。
この目的のためにdfg-nasは、メッセージ・パッシブ・ディス・アグリゲーション(英語版)に基づく置換と組合せを分類する新しい探索空間を提案し、4つのカスタム設計のマクロアーキテクチャ変異を定義し、進化アルゴリズムを用いて効率的かつ効果的な探索を行う。
4つのノード分類タスクに関する実証的研究は、DFG-NASがGNNの最先端手動設計やNASメソッドより優れていることを示している。
関連論文リスト
- Towards Lightweight Graph Neural Network Search with Curriculum Graph Sparsification [48.334100429553644]
本稿では,有意義なグラフデータを通じて重要なサブアーキテクチャを識別する結合グラフデータとアーキテクチャ機構を設計することを提案する。
最適軽量グラフニューラルネット(GNN)を探索するために,グラフスペーシングとネットワーク・プルーニング(GASSIP)法を用いた軽量グラフニューラル・アーキテクチャ・サーチを提案する。
本手法は,探索したGNNとスペーサーグラフのモデルパラメータを半分以下にすることで,オンパーあるいはそれ以上高いノード分類性能を実現する。
論文 参考訳(メタデータ) (2024-06-24T06:53:37Z) - Efficient and Explainable Graph Neural Architecture Search via
Monte-Carlo Tree Search [5.076419064097733]
グラフニューラルネットワーク(GNN)は、さまざまな領域でデータサイエンスタスクを実行する強力なツールである。
人的労力と計算コストを削減するため、グラフニューラルアーキテクチャ探索(Graph NAS)が準最適GNNアーキテクチャの探索に使用されている。
本稿では, (i) 様々なグラフに適応可能な単純な探索空間と, (ii) 決定プロセスを説明可能な検索アルゴリズムからなるExGNASを提案する。
論文 参考訳(メタデータ) (2023-08-30T03:21:45Z) - Auto-HeG: Automated Graph Neural Network on Heterophilic Graphs [62.665761463233736]
異種グラフ上の自動グラフニューラルネットワークであるAuto-HeGを提案し、異種グラフGNNモデルを自動的に構築する。
特にAuto-HeGは、検索空間設計、スーパーネットトレーニング、アーキテクチャ選択など、自動異種グラフ学習のあらゆる段階にヘテロフィリーを組み込んでいる。
論文 参考訳(メタデータ) (2023-02-23T22:49:56Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - Search For Deep Graph Neural Networks [4.3002928862077825]
現在のGNN指向NAS法は、浅い単純なアーキテクチャを持つ異なる層集約コンポーネントの探索に重点を置いている。
本稿では,新しい2段階探索空間を持つGNN生成パイプラインを提案する。
実世界のデータセットの実験では、生成したGNNモデルは、既存の手動設計やNASベースのモデルよりも優れています。
論文 参考訳(メタデータ) (2021-09-21T09:24:59Z) - Edge-featured Graph Neural Architecture Search [131.4361207769865]
最適GNNアーキテクチャを見つけるために,エッジ機能付きグラフニューラルアーキテクチャ探索を提案する。
具体的には、高次表現を学習するためにリッチなエンティティとエッジの更新操作を設計する。
EGNASは、現在最先端の人間設計および検索されたGNNよりも高い性能で、より優れたGNNを検索できることを示す。
論文 参考訳(メタデータ) (2021-09-03T07:53:18Z) - Search to aggregate neighborhood for graph neural network [47.47628113034479]
そこで本研究では,データ固有のGNNアーキテクチャを自動的に設計するためのフレームワークとして,SANE(Search to Aggregate NEighborhood)を提案する。
新規で表現力のある検索空間を設計することにより,従来の強化学習法よりも効率的である微分可能な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-14T03:15:19Z) - Rethinking Graph Neural Network Search from Message-passing [120.62373472087651]
本稿では,新しい検索空間を設計したグラフニューラルアーキテクチャサーチ(GNAS)を提案する。
グラフニューラルアーキテクチャパラダイム(GAP:Graph Neural Architecture Paradigm)をツリートポロジー計算手順と2種類の微粒原子操作で設計します。
実験では、GNASは複数のメッセージ通過機構と最適なメッセージ通過深さを持つより良いGNNを探索できることを示しています。
論文 参考訳(メタデータ) (2021-03-26T06:10:41Z) - Simplifying Architecture Search for Graph Neural Network [38.45540097927176]
本稿では,新しい探索空間と強化学習に基づく探索アルゴリズムからなるSNAGフレームワークを提案する。
実世界のデータセットを用いた実験は、人間設計のGNNやNAS手法と比較してSNAGフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2020-08-26T16:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。