論文の概要: GCN for HIN via Implicit Utilization of Attention and Meta-paths
- arxiv url: http://arxiv.org/abs/2007.02643v1
- Date: Mon, 6 Jul 2020 11:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 03:10:53.549645
- Title: GCN for HIN via Implicit Utilization of Attention and Meta-paths
- Title(参考訳): 注意とメタパスの間接的利用によるHIN用GCN
- Authors: Di Jin, Zhizhi Yu, Dongxiao He, Carl Yang, Philip S. Yu and Jiawei Han
- Abstract要約: 不均一情報ネットワーク(HIN)埋め込みは、HINの構造と意味情報を分散表現にマッピングすることを目的としている。
本稿では,注意とメタパスを暗黙的に活用するニューラルネットワーク手法を提案する。
まず、各層で識別集約を行う多層グラフ畳み込みネットワーク(GCN)フレームワークを用いる。
次に,アグリゲーションから分離可能な新しい伝搬操作を導入することにより,効果的な緩和と改善を行う。
- 参考スコア(独自算出の注目度): 104.24467864133942
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heterogeneous information network (HIN) embedding, aiming to map the
structure and semantic information in a HIN to distributed representations, has
drawn considerable research attention. Graph neural networks for HIN embeddings
typically adopt a hierarchical attention (including node-level and
meta-path-level attentions) to capture the information from meta-path-based
neighbors. However, this complicated attention structure often cannot achieve
the function of selecting meta-paths due to severe overfitting. Moreover, when
propagating information, these methods do not distinguish direct (one-hop)
meta-paths from indirect (multi-hop) ones. But from the perspective of network
science, direct relationships are often believed to be more essential, which
can only be used to model direct information propagation. To address these
limitations, we propose a novel neural network method via implicitly utilizing
attention and meta-paths, which can relieve the severe overfitting brought by
the current over-parameterized attention mechanisms on HIN. We first use the
multi-layer graph convolutional network (GCN) framework, which performs a
discriminative aggregation at each layer, along with stacking the information
propagation of direct linked meta-paths layer-by-layer, realizing the function
of attentions for selecting meta-paths in an indirect way. We then give an
effective relaxation and improvement via introducing a new propagation
operation which can be separated from aggregation. That is, we first model the
whole propagation process with well-defined probabilistic diffusion dynamics,
and then introduce a random graph-based constraint which allows it to reduce
noise with the increase of layers. Extensive experiments demonstrate the
superiority of the new approach over state-of-the-art methods.
- Abstract(参考訳): 不均一情報ネットワーク(HIN)は,HINの構造と意味情報を分散表現にマッピングすることを目的としており,研究の注目を集めている。
HIN埋め込みのためのグラフニューラルネットワークは通常、メタパスベースの隣人からの情報を取得するために階層的な注意(ノードレベルやメタパスレベルの注意を含む)を採用する。
しかし、この複雑な注意構造は、過度に過度な過度によりメタパスを選択する機能を達成できないことが多い。
さらに、情報を伝播する場合、これらの方法は直接(ワンホップ)メタパスと間接(マルチホップ)パスとを区別しない。
しかし、ネットワーク科学の観点からは、直接関係はより不可欠であると考えられており、直接情報伝達をモデル化するのにのみ使用できる。
これらの制約に対処するために,注意とメタパスを暗黙的に活用し,hin上の現在の過パラメータな注意機構によって引き起こされる過度なオーバーフィットを緩和する新しいニューラルネットワーク手法を提案する。
まず,各層で識別集約を行う多層グラフ畳み込みネットワーク(gcn)フレームワークと,直接リンクされたメタパスの層別情報伝達を積み重ねて,間接的にメタパスを選択するための注意の関数を実現する。
次に,アグリゲーションから分離可能な新しい伝播操作を導入することで,効果的な緩和と改善を行う。
すなわち、まず、確率的拡散ダイナミクスをよく定義した伝播過程全体をモデル化し、次に、層の増加によってノイズを低減できるランダムグラフベースの制約を導入する。
広範な実験により、最先端の手法よりも新しいアプローチが優れていることが示されている。
関連論文リスト
- Sparse Explanations of Neural Networks Using Pruned Layer-Wise Relevance Propagation [1.593690982728631]
本稿では,レイヤワイド・レバレンス・プロパゲーションに広く用いられている説明手法の修正について述べる。
提案手法は,各レイヤの関連伝搬を解析することにより,空間性を直接的に適用する。
この修正によってノイズの低減と,ベースラインと比較して重要な特徴の集中がもたらされることが示される。
論文 参考訳(メタデータ) (2024-04-22T15:16:59Z) - Prototype-Enhanced Hypergraph Learning for Heterogeneous Information
Networks [22.564818600608838]
異種情報ネットワークにおけるノード分類のためのプロトタイプ強化ハイパーグラフ学習手法を提案する。
提案手法はノード間の高次関係を捕捉し,メタパスに依存することなく意味情報を抽出する。
論文 参考訳(メタデータ) (2023-09-22T09:51:15Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Simplicial Attention Networks [0.0]
異なるレイヤでデータコンポーネントを処理できる適切な自己アテンションメカニズムを導入します。
与えられた位相領域の上と下の両方の近傍を、完全にタスク指向の方法で重み付けする方法を学ぶ。
提案手法は,異なるタスク(帰納的タスク,帰納的タスク)に適用した場合,他の手法と良好に比較できる。
論文 参考訳(メタデータ) (2022-03-14T20:47:31Z) - Decomposing neural networks as mappings of correlation functions [57.52754806616669]
本研究では,ディープフィードフォワードネットワークによって実装された確率分布のマッピングについて検討する。
ニューラルネットワークで使用できる異なる情報表現と同様に、データに不可欠な統計を識別する。
論文 参考訳(メタデータ) (2022-02-10T09:30:31Z) - Joint-bone Fusion Graph Convolutional Network for Semi-supervised
Skeleton Action Recognition [65.78703941973183]
本稿では,CD-JBF-GCNをエンコーダとし,ポーズ予測ヘッドをデコーダとして使用する新しい相関駆動型ジョイントボーン・フュージョングラフ畳み込みネットワークを提案する。
具体的には、CD-JBF-GCは、関節ストリームと骨ストリームの間の運動伝達を探索することができる。
自己教師型トレーニング段階におけるポーズ予測に基づくオートエンコーダにより、未ラベルデータから動作表現を学習することができる。
論文 参考訳(メタデータ) (2022-02-08T16:03:15Z) - SHGNN: Structure-Aware Heterogeneous Graph Neural Network [77.78459918119536]
本稿では、上記の制約に対処する構造対応不均一グラフニューラルネットワーク(SHGNN)を提案する。
まず,メタパス内の中間ノードの局所構造情報を取得するために,特徴伝搬モジュールを利用する。
次に、ツリーアテンションアグリゲータを使用して、グラフ構造情報をメタパス上のアグリゲーションモジュールに組み込む。
最後に、メタパスアグリゲータを利用して、異なるメタパスから集約された情報を融合する。
論文 参考訳(メタデータ) (2021-12-12T14:18:18Z) - DisenHAN: Disentangled Heterogeneous Graph Attention Network for
Recommendation [11.120241862037911]
不均一な情報ネットワークは、リコメンデータシステムにおけるスパーシリティとコールドスタートの問題を軽減するために広く利用されている。
そこで本稿では,非交叉不均質グラフアテンションネットワークDisenHANについて,トップ$N$のレコメンデーションを提案する。
論文 参考訳(メタデータ) (2021-06-21T06:26:10Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Interpretable and Efficient Heterogeneous Graph Convolutional Network [27.316334213279973]
異種情報ネットワーク(HIN)におけるオブジェクトの表現を学習するための、解釈可能で効率的な異種グラフ畳み込みネットワーク(e-HGCN)を提案する。
ie-HGCNは、長さ制限内で可能なすべてのメタパスから、各オブジェクトの有用なメタパスを自動的に抽出することができる。
また、中間HIN変換や近傍の注意を回避して計算コストを削減できる。
論文 参考訳(メタデータ) (2020-05-27T06:06:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。