論文の概要: Unsupervised Graph Neural Architecture Search with Disentangled
Self-supervision
- arxiv url: http://arxiv.org/abs/2403.05064v1
- Date: Fri, 8 Mar 2024 05:23:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 20:58:29.196220
- Title: Unsupervised Graph Neural Architecture Search with Disentangled
Self-supervision
- Title(参考訳): 絡み合った自己スーパービジョンを用いた教師なしグラフニューラルネットワーク探索
- Authors: Zeyang Zhang, Xin Wang, Ziwei Zhang, Guangyao Shen, Shiqi Shen, Wenwu
Zhu
- Abstract要約: 教師なしグラフニューラルアーキテクチャサーチは、文献では未発見のままである。
本稿では,Distangled Self-supervised Graph Neural Architecture Searchモデルを提案する。
我々のモデルは、教師なしの方法で、いくつかのベースライン手法に対して最先端のパフォーマンスを達成することができる。
- 参考スコア(独自算出の注目度): 51.88848982611515
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The existing graph neural architecture search (GNAS) methods heavily rely on
supervised labels during the search process, failing to handle ubiquitous
scenarios where supervisions are not available. In this paper, we study the
problem of unsupervised graph neural architecture search, which remains
unexplored in the literature. The key problem is to discover the latent graph
factors that drive the formation of graph data as well as the underlying
relations between the factors and the optimal neural architectures. Handling
this problem is challenging given that the latent graph factors together with
architectures are highly entangled due to the nature of the graph and the
complexity of the neural architecture search process. To address the challenge,
we propose a novel Disentangled Self-supervised Graph Neural Architecture
Search (DSGAS) model, which is able to discover the optimal architectures
capturing various latent graph factors in a self-supervised fashion based on
unlabeled graph data. Specifically, we first design a disentangled graph
super-network capable of incorporating multiple architectures with factor-wise
disentanglement, which are optimized simultaneously. Then, we estimate the
performance of architectures under different factors by our proposed
self-supervised training with joint architecture-graph disentanglement.
Finally, we propose a contrastive search with architecture augmentations to
discover architectures with factor-specific expertise. Extensive experiments on
11 real-world datasets demonstrate that the proposed model is able to achieve
state-of-the-art performance against several baseline methods in an
unsupervised manner.
- Abstract(参考訳): 既存のグラフニューラルネットワークサーチ(GNAS)メソッドは、検索プロセス中に教師付きラベルに大きく依存しており、監督ができないユビキタスシナリオに対処できない。
本稿では,教師なしのグラフニューラルアーキテクチャ探索の問題点について検討する。
重要な問題は、グラフデータの形成を駆動する潜在性グラフ因子と、その要因と最適な神経構造との間の基礎的な関係を見つけることである。
この問題に対処することは、グラフの性質とニューラルネットワーク探索プロセスの複雑さのために、アーキテクチャと共に潜伏グラフ因子が非常に絡み合っているため、難しい。
この課題に対処するために、未ラベルグラフデータに基づいて、様々な潜在グラフ要素を自己教師付き形式でキャプチャする最適なアーキテクチャを発見できる、分散自己教師型グラフニューラルネットワーク探索(DSGAS)モデルを提案する。
具体的には、まず、複数のアーキテクチャを同時に最適化した因子的非絡み合いを組み込むことができる非絡み合いグラフ超ネットワークを設計する。
そこで,提案する自己監督訓練により,異なる要因下での建築性能を推定する。
最後に,因子に特有な専門知識を持つアーキテクチャを探索するために,アーキテクチャ拡張を用いた対比探索を提案する。
11の実世界のデータセットに対する大規模な実験により、提案モデルは教師なしの方法でいくつかのベースライン手法に対して最先端のパフォーマンスを達成することができることを示した。
関連論文リスト
- Causal-Aware Graph Neural Architecture Search under Distribution Shifts [48.02254981004058]
Causal-aware Graph Neural Architecture Search (CARNAS)は、アーキテクチャ探索プロセス中に因果グラフ-アーキテクチャ関係をキャプチャする。
本稿では,潜伏空間内の因果部分グラフに介入するグラフ埋め込み干渉法を提案する。
論文 参考訳(メタデータ) (2024-05-26T08:55:22Z) - Multi-conditioned Graph Diffusion for Neural Architecture Search [8.290336491323796]
本稿では、離散的な条件付きグラフ拡散プロセスを用いて、高性能ニューラルネットワークアーキテクチャを生成するグラフ拡散に基づくNAS手法を提案する。
6つの標準ベンチマークで有望な結果を示し、新しいアーキテクチャとユニークなアーキテクチャを高速に実現します。
論文 参考訳(メタデータ) (2024-03-09T21:45:31Z) - Neural Architecture Retrieval [27.063268631346713]
我々は、クエリニューラルアーキテクチャに似た設計で既存のニューラルアーキテクチャの集合を検索するニューラルアーキテクチャ検索という新しい問題を定義する。
既存のグラフ事前学習戦略は、グラフのサイズとモチーフのため、ニューラルネットワークの計算グラフに対処できない。
正確なグラフ表現学習を実現するために,マルチレベルコントラスト学習を導入する。
論文 参考訳(メタデータ) (2023-07-16T01:56:41Z) - Neural combinatorial optimization beyond the TSP: Existing architectures
under-represent graph structure [9.673093148930876]
我々は、最近のニューラルネットワークが実際に重要なグラフ問題にどのように適用できるのか、その分析を行う。
距離問題の構造的表現を増大させることは、多目的自律型問題解決者を学ぶという、まだ曖昧な目標に向けた有望なステップであることを示す。
論文 参考訳(メタデータ) (2022-01-03T14:14:28Z) - Network Graph Based Neural Architecture Search [57.78724765340237]
我々は、対応するグラフを書き換えてニューラルネットワークを探索し、グラフ特性によるアーキテクチャ性能の予測を行う。
グラフ空間全体にわたって機械学習を行わないため、探索プロセスは極めて効率的である。
論文 参考訳(メタデータ) (2021-12-15T00:12:03Z) - Edge-featured Graph Neural Architecture Search [131.4361207769865]
最適GNNアーキテクチャを見つけるために,エッジ機能付きグラフニューラルアーキテクチャ探索を提案する。
具体的には、高次表現を学習するためにリッチなエンティティとエッジの更新操作を設計する。
EGNASは、現在最先端の人間設計および検索されたGNNよりも高い性能で、より優れたGNNを検索できることを示す。
論文 参考訳(メタデータ) (2021-09-03T07:53:18Z) - Structural Landmarking and Interaction Modelling: on Resolution Dilemmas
in Graph Classification [50.83222170524406]
解法ジレンマの統一概念に基づくグラフ分類における本質的難易度の研究」
構造ランドマークと相互作用モデリングのためのインダクティブニューラルネットワークモデルSLIM'を提案する。
論文 参考訳(メタデータ) (2020-06-29T01:01:42Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。