論文の概要: Layer-stacked Attention for Heterogeneous Network Embedding
- arxiv url: http://arxiv.org/abs/2009.08072v1
- Date: Thu, 17 Sep 2020 05:13:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 08:24:37.806423
- Title: Layer-stacked Attention for Heterogeneous Network Embedding
- Title(参考訳): ヘテロジニアスネットワーク埋め込みのための階層型注意
- Authors: Nhat Tran, Jean Gao
- Abstract要約: レイヤスタックATTention Embedding (LATTE)は、各レイヤで上位のメタ関係を自動的に分解するアーキテクチャである。
LATTEは、異なる近傍範囲の異なるタイプのノードに対して、より解釈可能なアグリゲーションスキームを提供する。
帰納的ノード分類タスクと帰納的ノード分類タスクの両方において、LATTEは既存のアプローチと比較して最先端のパフォーマンスを達成することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The heterogeneous network is a robust data abstraction that can model
entities of different types interacting in various ways. Such heterogeneity
brings rich semantic information but presents nontrivial challenges in
aggregating the heterogeneous relationships between objects - especially those
of higher-order indirect relations. Recent graph neural network approaches for
representation learning on heterogeneous networks typically employ the
attention mechanism, which is often only optimized for predictions based on
direct links. Furthermore, even though most deep learning methods can aggregate
higher-order information by building deeper models, such a scheme can diminish
the degree of interpretability. To overcome these challenges, we explore an
architecture - Layer-stacked ATTention Embedding (LATTE) - that automatically
decomposes higher-order meta relations at each layer to extract the relevant
heterogeneous neighborhood structures for each node. Additionally, by
successively stacking layer representations, the learned node embedding offers
a more interpretable aggregation scheme for nodes of different types at
different neighborhood ranges. We conducted experiments on several benchmark
heterogeneous network datasets. In both transductive and inductive node
classification tasks, LATTE can achieve state-of-the-art performance compared
to existing approaches, all while offering a lightweight model. With extensive
experimental analyses and visualizations, the framework can demonstrate the
ability to extract informative insights on heterogeneous networks.
- Abstract(参考訳): 異種ネットワークは、さまざまな方法で相互作用するさまざまなタイプのエンティティをモデル化できる堅牢なデータ抽象化である。
このような異質性は、豊富な意味的情報をもたらすが、オブジェクト間の異質な関係、特に高次間接関係を集約する非自明な課題を呈する。
ヘテロジニアスネットワーク上での表現学習のための最近のグラフニューラルネットワークアプローチでは、しばしば直接リンクに基づく予測に最適化されるアテンションメカニズムが採用されている。
さらに、深層モデルを構築することによって、ほとんどのディープラーニング手法は高次情報を集約することができるが、そのようなスキームは解釈可能性の度合いを減少させる可能性がある。
これらの課題を克服するために、各層で上位のメタ関係を自動的に分解し、各ノードの関連する異種近傍構造を抽出するアーキテクチャ、Layer-stacked ATTention Embedding (LATTE)を探索する。
さらに、階層表現を順次積み重ねることで、学習ノード埋め込みは、異なる近傍範囲の異なるタイプのノードに対して、より解釈可能な集約スキームを提供する。
我々は、複数のベンチマークヘテロジニアスネットワークデータセットの実験を行った。
トランスダクティブノード分類タスクとインダクティブノード分類タスクの両方において、LATTEは、軽量モデルを提供しながら、既存のアプローチと比較して最先端のパフォーマンスを実現することができる。
大規模な実験的分析と可視化により、このフレームワークは異種ネットワークに関する情報的洞察を抽出する能力を示すことができる。
関連論文リスト
- Flexible inference in heterogeneous and attributed multilayer networks [21.349513661012498]
我々は任意の種類の情報を持つ多層ネットワークで推論を行う確率的生成モデルを開発した。
インド農村部における社会支援ネットワークにおける様々なパターンを明らかにする能力を示す。
論文 参考訳(メタデータ) (2024-05-31T15:21:59Z) - FMGNN: Fused Manifold Graph Neural Network [102.61136611255593]
グラフ表現学習は、様々なグラフタスクにおいて広く研究され、効果が実証されている。
本稿では,異なるマニフォールドにグラフを埋め込む新しいGNNアーキテクチャであるFused Manifold Graph Neural Network (NN)を提案する。
提案実験により,NNはノード分類およびリンク予測タスクのベンチマークにおいて,強いベースラインよりも優れた性能が得られることを示した。
論文 参考訳(メタデータ) (2023-04-03T15:38:53Z) - Multiplex Heterogeneous Graph Convolutional Network [25.494590588212542]
異種ネットワーク埋め込みのための多重異種グラフ畳み込みネットワーク(MHGCN)を提案する。
我々のMHGCNは、多重異種ネットワークにおいて、異なる長さの有用な異種メタパス相互作用を自動的に学習することができる。
論文 参考訳(メタデータ) (2022-08-12T06:17:54Z) - HybridGNN: Learning Hybrid Representation in Multiplex Heterogeneous
Networks [26.549559266395775]
本稿では,ハイブリッドアグリゲーションフローと階層的アテンションを備えたエンドツーエンドグラフニューラルネットワークモデルであるHybridGNNを提案する。
以上の結果から,HybridGNNはいくつかの最先端ベースラインと比較して最高の性能を示す。
論文 参考訳(メタデータ) (2022-08-03T13:39:47Z) - SHGNN: Structure-Aware Heterogeneous Graph Neural Network [77.78459918119536]
本稿では、上記の制約に対処する構造対応不均一グラフニューラルネットワーク(SHGNN)を提案する。
まず,メタパス内の中間ノードの局所構造情報を取得するために,特徴伝搬モジュールを利用する。
次に、ツリーアテンションアグリゲータを使用して、グラフ構造情報をメタパス上のアグリゲーションモジュールに組み込む。
最後に、メタパスアグリゲータを利用して、異なるメタパスから集約された情報を融合する。
論文 参考訳(メタデータ) (2021-12-12T14:18:18Z) - DisenHAN: Disentangled Heterogeneous Graph Attention Network for
Recommendation [11.120241862037911]
不均一な情報ネットワークは、リコメンデータシステムにおけるスパーシリティとコールドスタートの問題を軽減するために広く利用されている。
そこで本稿では,非交叉不均質グラフアテンションネットワークDisenHANについて,トップ$N$のレコメンデーションを提案する。
論文 参考訳(メタデータ) (2021-06-21T06:26:10Z) - Redefining Neural Architecture Search of Heterogeneous Multi-Network
Models by Characterizing Variation Operators and Model Components [71.03032589756434]
複素領域における異なる変動演算子の効果について検討する。
モデルの複雑さと性能に影響を及ぼす変化演算子と、それを構成する異なる部分の質を推定する様々な指標に依存するモデルの両方を特徴付ける。
論文 参考訳(メタデータ) (2021-06-16T17:12:26Z) - Reinforced Neighborhood Selection Guided Multi-Relational Graph Neural
Networks [68.9026534589483]
RioGNNはReinforceed, recursive, flexible neighborhood selection guided multi-relational Graph Neural Network architectureである。
RioGNNは、各関係の個々の重要性の認識により、説明性を高めた差別的なノード埋め込みを学ぶことができる。
論文 参考訳(メタデータ) (2021-04-16T04:30:06Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - GAHNE: Graph-Aggregated Heterogeneous Network Embedding [32.44836376873812]
異種ネットワーク埋め込みは、ノードを低次元ベクトルに埋め込み、異種ネットワークの豊富な本質的な情報を捕捉することを目的としている。
既存のモデルは、手動でメタパスを設計するか、異なるセマンティクス間の相互効果を無視するか、あるいはグローバルネットワークからの情報のいくつかの側面を省略する。
GAHNEモデルでは、異なる単一タイプのサブネットワークからのセマンティック表現を集約する機構を開発し、グローバル情報を最終埋め込みに融合させる。
論文 参考訳(メタデータ) (2020-12-23T07:11:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。