論文の概要: Modeling Dynamic Heterogeneous Network for Link Prediction using
Hierarchical Attention with Temporal RNN
- arxiv url: http://arxiv.org/abs/2004.01024v1
- Date: Wed, 1 Apr 2020 17:16:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 18:26:58.303929
- Title: Modeling Dynamic Heterogeneous Network for Link Prediction using
Hierarchical Attention with Temporal RNN
- Title(参考訳): 階層的注意と時間的rnnを用いたリンク予測のための動的ヘテロジニアスネットワークのモデル化
- Authors: Hansheng Xue, Luwei Yang, Wen Jiang, Yi Wei, Yi Hu, and Yu Lin
- Abstract要約: 我々はDyHATRと呼ばれる新しい動的ヘテロジニアスネットワーク埋め込み法を提案する。
階層的な注意を使って異質な情報を学習し、進化パターンを捉えるために時間的注意を伴う繰り返しニューラルネットワークを組み込む。
リンク予測のための4つの実世界のデータセットに対して,本手法をベンチマークした。
- 参考スコア(独自算出の注目度): 16.362525151483084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network embedding aims to learn low-dimensional representations of nodes
while capturing structure information of networks. It has achieved great
success on many tasks of network analysis such as link prediction and node
classification. Most of existing network embedding algorithms focus on how to
learn static homogeneous networks effectively. However, networks in the real
world are more complex, e.g., networks may consist of several types of nodes
and edges (called heterogeneous information) and may vary over time in terms of
dynamic nodes and edges (called evolutionary patterns). Limited work has been
done for network embedding of dynamic heterogeneous networks as it is
challenging to learn both evolutionary and heterogeneous information
simultaneously. In this paper, we propose a novel dynamic heterogeneous network
embedding method, termed as DyHATR, which uses hierarchical attention to learn
heterogeneous information and incorporates recurrent neural networks with
temporal attention to capture evolutionary patterns. We benchmark our method on
four real-world datasets for the task of link prediction. Experimental results
show that DyHATR significantly outperforms several state-of-the-art baselines.
- Abstract(参考訳): ネットワーク埋め込みは、ネットワークの構造情報を捉えながら、ノードの低次元表現を学ぶことを目的としている。
リンク予測やノード分類といったネットワーク解析の多くのタスクにおいて大きな成功を収めた。
既存のネットワーク埋め込みアルゴリズムのほとんどは、静的な均質ネットワークを効果的に学習する方法に焦点を当てている。
しかし、現実世界のネットワークはより複雑であり、例えば、ネットワークはいくつかの種類のノードとエッジ(異種情報と呼ばれる)で構成され、動的ノードとエッジ(進化パターンと呼ばれる)の観点で時間とともに変化する可能性がある。
動的異種ネットワークのネットワーク埋め込みには,進化的情報と異種情報の両方を同時に学習することが困難である。
本稿では,階層的注意を応用して異種情報を学習し,時間的注意で再帰的ニューラルネットワークを取り入れ,進化的パターンを捉える新しい動的ヘテロジニアスネットワーク埋め込み手法dyhatrを提案する。
リンク予測のための4つの実世界のデータセットをベンチマークする。
実験の結果,DyHATRはいくつかの最先端のベースラインよりも優れていた。
関連論文リスト
- How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Characterizing Learning Dynamics of Deep Neural Networks via Complex
Networks [1.0869257688521987]
複素ネットワーク理論(CNT)は、ディープニューラルネットワーク(DNN)を重み付きグラフとして表現し、それらを動的システムとして研究する。
ノード/ニューロンとレイヤ、すなわちNodes StrengthとLayers Fluctuationのメトリクスを紹介します。
本フレームワークは,学習力学のトレンドを抽出し,高精度ネットワークから低次ネットワークを分離する。
論文 参考訳(メタデータ) (2021-10-06T10:03:32Z) - Network Embedding via Deep Prediction Model [25.727377978617465]
本稿では,深層予測モデルを用いて構造化ネットワーク上での転送挙動を捕捉するネットワーク埋め込みフレームワークを提案する。
ネットワーク構造埋め込み層は、Long Short-Term Memory NetworkやRecurrent Neural Networkなど、従来の深部予測モデルに付加される。
ソーシャルネットワーク, 引用ネットワーク, バイオメディカルネットワーク, 協調ネットワーク, 言語ネットワークなど, さまざまなデータセットについて実験を行った。
論文 参考訳(メタデータ) (2021-04-27T16:56:00Z) - DynACPD Embedding Algorithm for Prediction Tasks in Dynamic Networks [6.5361928329696335]
本稿では,動的ネットワークのテンソル表現に対する高次テンソル分解に基づく動的ネットワークに対する新しい埋め込み手法を提案する。
リンク予測タスクにおけるアルゴリズムの性能を,現在のベースライン手法の配列と比較することにより,提案手法のパワーと効率を実証する。
論文 参考訳(メタデータ) (2021-03-12T04:36:42Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z) - Link Prediction for Temporally Consistent Networks [6.981204218036187]
リンク予測は、動的ネットワークにおける次の関係を推定する。
動的に進化するネットワークを表現するための隣接行列の使用は、異種、スパース、またはネットワーク形成から解析的に学習する能力を制限する。
時間的パラメータ化ネットワークモデルとして不均一な時間進化活動を表現する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-06T07:28:03Z) - Foundations and modelling of dynamic networks using Dynamic Graph Neural
Networks: A survey [11.18312489268624]
我々は、一貫した詳細な用語と表記を伴う動的ネットワークの基礎を確立する。
提案する用語を用いて,動的グラフニューラルネットワークモデルに関する包括的調査を行う。
論文 参考訳(メタデータ) (2020-05-13T23:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。