論文の概要: Domain Generalization Deep Graph Transformation
- arxiv url: http://arxiv.org/abs/2305.11389v2
- Date: Tue, 23 May 2023 20:42:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 00:45:18.207273
- Title: Domain Generalization Deep Graph Transformation
- Title(参考訳): ドメインの一般化 ディープグラフ変換
- Authors: Shiyu Wang, Guangji Bai, Qingyang Zhu, Zhaohui Qin, Liang Zhao
- Abstract要約: あるモードから別のモードへのグラフ遷移を予測するグラフ変換は、重要かつ一般的な問題である。
本稿では、エンコーダとデコーダを用いて、入力モードと出力モードの両方のトポロジを符号化するマルチインプット、マルチアウトプット、ハイパーネットワークベースのグラフニューラルネットワーク(MultiHyperGNN)を提案する。
総合的な実験により、MultiHyperGNNは予測タスクとドメインタスクの両方で競合するモデルよりも優れた性能を示している。
- 参考スコア(独自算出の注目度): 5.456279425545284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph transformation that predicts graph transition from one mode to another
is an important and common problem. Despite much progress in developing
advanced graph transformation techniques in recent years, the fundamental
assumption typically required in machine-learning models that the testing and
training data preserve the same distribution does not always hold. As a result,
domain generalization graph transformation that predicts graphs not available
in the training data is under-explored, with multiple key challenges to be
addressed including (1) the extreme space complexity when training on all
input-output mode combinations, (2) difference of graph topologies between the
input and the output modes, and (3) how to generalize the model to (unseen)
target domains that are not in the training data. To fill the gap, we propose a
multi-input, multi-output, hypernetwork-based graph neural network
(MultiHyperGNN) that employs a encoder and a decoder to encode topologies of
both input and output modes and semi-supervised link prediction to enhance the
graph transformation task. Instead of training on all mode combinations,
MultiHyperGNN preserves a constant space complexity with the encoder and the
decoder produced by two novel hypernetworks. Comprehensive experiments show
that MultiHyperGNN has a superior performance than competing models in both
prediction and domain generalization tasks.
- Abstract(参考訳): あるモードから別のモードへのグラフ遷移を予測するグラフ変換は、重要かつ一般的な問題である。
近年の高度なグラフ変換技術の進歩にもかかわらず、機械学習モデルにおいて一般的に必要とされる基本的な前提は、テストデータとトレーニングデータが同じ分布を保持するとは限らないことである。
その結果、トレーニングデータで使用できないグラフを予測するドメイン一般化グラフ変換は、(1)すべての入出力モードの組み合わせでトレーニングする場合の極端な空間複雑性、(2)入力モードと出力モードの間のグラフトポロジの違い、(3)トレーニングデータにないターゲットドメインへのモデル(見当たらない)一般化の方法、など、いくつかの課題に対処しなければならない。
このギャップを埋めるために,入力モードと出力モードの位相を符号化するエンコーダとデコーダと,グラフ変換タスクを強化する半教師付きリンク予測を用いた,マルチインプット,マルチアウトプット,ハイパーネットワークベースのグラフニューラルネットワーク(multihypergnn)を提案する。
すべてのモードの組み合わせでトレーニングする代わりに、multihypergnnは、2つの新しいハイパーネットワークによって生成されるエンコーダとデコーダとの一定の空間複雑性を保持する。
総合的な実験により、MultiHyperGNNは予測タスクとドメイン一般化タスクの両方で競合するモデルよりも優れた性能を示している。
関連論文リスト
- Pre-trained Graphformer-based Ranking at Web-scale Search (Extended Abstract) [56.55728466130238]
本稿では,変換器の回帰能力をGNNのリンク予測強度と統合することを目的とした新しいMPGrafモデルを提案する。
我々は、MPGrafの性能を厳格に評価するために、大規模なオフラインおよびオンライン実験を行っている。
論文 参考訳(メタデータ) (2024-09-25T03:33:47Z) - GraphFM: A Scalable Framework for Multi-Graph Pretraining [2.882104808886318]
本稿では,さまざまな領域のグラフデータセットにまたがるノード分類タスクに適した,スケーラブルなマルチグラフ・マルチタスク事前学習手法を提案する。
我々は,740万以上のノードと1億1900万のエッジからなる152のグラフデータセットのモデルをトレーニングすることで,このアプローチの有効性を実証する。
以上の結果から,多種多様な実・合成グラフの事前学習により適応性と安定性が向上し,最先端のスペシャリストモデルと競合する結果が得られた。
論文 参考訳(メタデータ) (2024-07-16T16:51:43Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - What Improves the Generalization of Graph Transformers? A Theoretical Dive into the Self-attention and Positional Encoding [67.59552859593985]
自己アテンションと位置エンコーディングを組み込んだグラフトランスフォーマーは、さまざまなグラフ学習タスクのための強力なアーキテクチャとして登場した。
本稿では,半教師付き分類のための浅いグラフ変換器の理論的検討について紹介する。
論文 参考訳(メタデータ) (2024-06-04T05:30:16Z) - Advective Diffusion Transformers for Topological Generalization in Graph
Learning [69.2894350228753]
グラフ拡散方程式は、様々なグラフトポロジーの存在下で、どのように外挿して一般化するかを示す。
本稿では,新たなグラフエンコーダのバックボーンであるAdvective Diffusion Transformer (ADiT)を提案する。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - UniG-Encoder: A Universal Feature Encoder for Graph and Hypergraph Node
Classification [6.977634174845066]
グラフおよびハイパーグラフ表現学習のための普遍的特徴エンコーダ(UniG-Encoder)が設計されている。
アーキテクチャは、連結ノードのトポロジ的関係をエッジやハイパーエッジに前方変換することから始まる。
符号化されたノードの埋め込みは、投影行列の変換によって記述された逆変換から導かれる。
論文 参考訳(メタデータ) (2023-08-03T09:32:50Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Finding Diverse and Predictable Subgraphs for Graph Domain
Generalization [88.32356432272356]
本稿では,不明瞭な分布シフトにより性能が低下するグラフの分布外一般化に着目した。
本稿では,DPSと呼ばれる新しいグラフ領域の一般化フレームワークを提案する。
ノードレベルのベンチマークとグラフレベルのベンチマークの両方の実験により、提案したDPSはグラフ領域の一般化タスクにおいて印象的な性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-06-19T07:57:56Z) - Efficient Variational Graph Autoencoders for Unsupervised Cross-domain
Prerequisite Chains [3.358838755118655]
本稿では,このドメイン間前提連鎖学習タスクを効率的に解くために,DAVGAE(Domain-versaational Variational Graph Autoencoders)を導入する。
我々の新しいモデルは変分グラフオートエンコーダ(VGAE)とドメイン識別器から構成される。
その結果,本モデルは1/10グラフスケールと1/3時間のみを用いて,最近のグラフベースの計算より優れていることがわかった。
論文 参考訳(メタデータ) (2021-09-17T19:07:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。