論文の概要: Graphs, Entities, and Step Mixture
- arxiv url: http://arxiv.org/abs/2005.08485v2
- Date: Wed, 24 Jun 2020 05:46:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 22:53:50.692104
- Title: Graphs, Entities, and Step Mixture
- Title(参考訳): グラフ、エンティティ、ステップ混合
- Authors: Kyuyong Shin, Wonyoung Shin, Jung-Woo Ha, Sunyoung Kwon
- Abstract要約: エッジベース近傍関係とノードベース実体特徴の両方を考慮した新しいグラフニューラルネットワークを提案する。
集約的な実験により,提案したGESMは,8つのベンチマークグラフデータセット上で,最先端または同等のパフォーマンスを達成することを示す。
- 参考スコア(独自算出の注目度): 11.162937043309478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing approaches for graph neural networks commonly suffer from the
oversmoothing issue, regardless of how neighborhoods are aggregated. Most
methods also focus on transductive scenarios for fixed graphs, leading to poor
generalization for unseen graphs. To address these issues, we propose a new
graph neural network that considers both edge-based neighborhood relationships
and node-based entity features, i.e. Graph Entities with Step Mixture via
random walk (GESM). GESM employs a mixture of various steps through random walk
to alleviate the oversmoothing problem, attention to dynamically reflect
interrelations depending on node information, and structure-based
regularization to enhance embedding representation. With intensive experiments,
we show that the proposed GESM achieves state-of-the-art or comparable
performances on eight benchmark graph datasets comprising transductive and
inductive learning tasks. Furthermore, we empirically demonstrate the
significance of considering global information.
- Abstract(参考訳): グラフニューラルネットワークの既存のアプローチは、近傍の集約方法によらず、しばしば過度な問題に苦しむ。
ほとんどの手法は固定グラフの帰納的シナリオにも焦点をあてており、見当たらないグラフの一般化は不十分である。
これらの問題に対処するために,エッジベース近傍関係とノードベースのエンティティ特徴,すなわちランダムウォーク(gesm)によるステップ混合によるグラフエンティティの両方を考慮した新しいグラフニューラルネットワークを提案する。
GESMはランダムウォーク(ランダムウォーク)を通した様々なステップの混合を用いて、過度に平滑な問題を緩和し、ノード情報に依存する相互関係を動的に反映し、埋め込み表現を強化する構造ベース正規化を行う。
集中的な実験により、GESMは、トランスダクティブおよびインダクティブ学習タスクを含む8つのベンチマークグラフデータセットに対して、最先端または同等のパフォーマンスを達成することを示す。
さらに,グローバル情報を考える意義を実証的に示す。
関連論文リスト
- Towards Generalizability of Multi-Agent Reinforcement Learning in Graphs with Recurrent Message Passing [0.9353820277714449]
分散化されたアプローチでは、エージェントは与えられたグラフ内で動作し、部分的または時代遅れな観察に基づいて決定を行う。
この研究は一般化性に焦点をあて、グラフ全体の連続的な情報フローで観測された近傍のサイズのトレードオフを解消する。
我々の手法は、実行時に分散的に使用することができ、選択した強化学習アルゴリズムと組み合わせることができる。
論文 参考訳(メタデータ) (2024-02-07T16:53:09Z) - Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - A GAN Approach for Node Embedding in Heterogeneous Graphs Using Subgraph Sampling [33.50085646298074]
本稿では,グラフニューラルネットワーク (GNN) とGAN (Generative Adrial Network) を組み合わせた新しいフレームワークを提案する。
このフレームワークには高度なエッジ生成と選択モジュールが含まれており、合成ノードとエッジを同時に生成することができる。
論文 参考訳(メタデータ) (2023-12-11T16:52:20Z) - Graph Transformer GANs for Graph-Constrained House Generation [223.739067413952]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
GTGANは、グラフ制約のある住宅生成タスクにおいて、エンドツーエンドで効率的なグラフノード関係を学習する。
論文 参考訳(メタデータ) (2023-03-14T20:35:45Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。