論文の概要: Piecewise-Velocity Model for Learning Continuous-time Dynamic Node
Representations
- arxiv url: http://arxiv.org/abs/2212.12345v1
- Date: Fri, 23 Dec 2022 13:57:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 17:20:06.589910
- Title: Piecewise-Velocity Model for Learning Continuous-time Dynamic Node
Representations
- Title(参考訳): 連続時間動的ノード表現学習のためのPiecewise-Velocityモデル
- Authors: Abdulkadir \c{C}elikkanat and Nikolaos Nakis and Morten M{\o}rup
- Abstract要約: 連続時間動的ネットワーク表現のためのPiecewise-Veable Model (PiVeM)。
超低次元空間において、PiVeMはネットワーク構造と力学をうまく表現できることを示す。
リンク予測などの下流タスクでは、関連する最先端メソッドよりも優れています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Networks have become indispensable and ubiquitous structures in many fields
to model the interactions among different entities, such as friendship in
social networks or protein interactions in biological graphs. A major challenge
is to understand the structure and dynamics of these systems. Although networks
evolve through time, most existing graph representation learning methods target
only static networks. Whereas approaches have been developed for the modeling
of dynamic networks, there is a lack of efficient continuous time dynamic graph
representation learning methods that can provide accurate network
characterization and visualization in low dimensions while explicitly
accounting for prominent network characteristics such as homophily and
transitivity. In this paper, we propose the Piecewise-Velocity Model (PiVeM)
for the representation of continuous-time dynamic networks. It learns dynamic
embeddings in which the temporal evolution of nodes is approximated by
piecewise linear interpolations based on a latent distance model with piecewise
constant node-specific velocities. The model allows for analytically tractable
expressions of the associated Poisson process likelihood with scalable
inference invariant to the number of events. We further impose a scalable
Kronecker structured Gaussian Process prior to the dynamics accounting for
community structure, temporal smoothness, and disentangled (uncorrelated)
latent embedding dimensions optimally learned to characterize the network
dynamics. We show that PiVeM can successfully represent network structure and
dynamics in ultra-low two-dimensional spaces. It outperforms relevant
state-of-art methods in downstream tasks such as link prediction. In summary,
PiVeM enables easily interpretable dynamic network visualizations and
characterizations that can further improve our understanding of the intrinsic
dynamics of time-evolving networks.
- Abstract(参考訳): ネットワークは多くの分野で必須かつユビキタスな構造となり、ソーシャルネットワークにおける友情や、生物学的グラフにおけるタンパク質相互作用など、さまざまなエンティティ間の相互作用をモデル化している。
大きな課題は、これらのシステムの構造とダイナミクスを理解することである。
ネットワークは時間とともに進化するが、既存のグラフ表現学習法は静的ネットワークのみを対象としている。
動的ネットワークのモデリングのためのアプローチが開発されているが、ホモフィリーや推移性といった顕著なネットワーク特性を明示的に考慮しつつ、低次元における正確なネットワーク特性と可視化を提供する効率的な連続時間動的グラフ表現学習手法が欠如している。
本稿では,連続時間動的ネットワークの表現のためのPiecewise-Velocity Model (PiVeM)を提案する。
ノードの時間的進化を、定数なノード固有速度を持つ潜在距離モデルに基づいて分割線形補間によって近似する動的埋め込みを学習する。
このモデルは、イベントの数に不変なスケーラブルな推論を持つ関連するポアソン過程の確率を解析的に抽出可能な表現を可能にする。
さらに,コミュニティ構造,時間的平滑性,およびネットワークダイナミクスを特徴付けるために最適に学習された不連続(非相関)潜在埋め込み次元に対するダイナミクス会計に先立って,スケーラブルなクロネッカー構造ガウス過程を課す。
超低次元空間において、PiVeMはネットワーク構造と力学をうまく表現できることを示す。
リンク予測などの下流タスクでは、関連する最先端メソッドよりも優れています。
まとめると、PiVeMは容易に解釈可能な動的ネットワークの可視化とキャラクタリゼーションを可能にし、時間進化ネットワークの本質的なダイナミクスの理解をさらに改善することができる。
関連論文リスト
- Contrastive Representation Learning for Dynamic Link Prediction in Temporal Networks [1.9389881806157312]
本稿では,時間ネットワークの表現を学習するための自己教師付き手法を提案する。
本稿では、時間的ネットワークの時間的参照経路を介して情報の流れをモデル化するための、繰り返しメッセージパッシングニューラルネットワークアーキテクチャを提案する。
提案手法は、Enron、COLAB、Facebookのデータセットでテストされる。
論文 参考訳(メタデータ) (2024-08-22T22:50:46Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Dynamic Graph Representation Learning via Edge Temporal States Modeling and Structure-reinforced Transformer [5.093187534912688]
本稿では,動的グラフ表現学習のための新しいフレームワークであるRecurrent Structure-Reinforced Graph Transformer (RSGT)を紹介する。
RSGTは、繰り返し学習パラダイムを通じて、グラフトポロジと進化力学の両方をコードする時間ノード表現をキャプチャする。
離散動的グラフ表現学習におけるRSGTの優れた性能を示し、動的リンク予測タスクにおける既存の手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-04-20T04:12:50Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z) - Learning Contact Dynamics using Physically Structured Neural Networks [81.73947303886753]
ディープニューラルネットワークと微分方程式の接続を用いて、オブジェクト間の接触ダイナミクスを表現するディープネットワークアーキテクチャのファミリを設計する。
これらのネットワークは,ノイズ観測から不連続な接触事象をデータ効率良く学習できることを示す。
以上の結果から,タッチフィードバックの理想化形態は,この学習課題を扱いやすくするための重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2021-02-22T17:33:51Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z) - Deep learning of contagion dynamics on complex networks [0.0]
本稿では,ネットワーク上での感染動態の効果的なモデルを構築するために,ディープラーニングに基づく補完的アプローチを提案する。
任意のネットワーク構造をシミュレーションすることで,学習したダイナミックスの性質を学習データを超えて探索することが可能になる。
この結果は,ネットワーク上での感染動態の効果的なモデルを構築するために,ディープラーニングが新たな補完的な視点を提供することを示す。
論文 参考訳(メタデータ) (2020-06-09T17:18:34Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Link Prediction for Temporally Consistent Networks [6.981204218036187]
リンク予測は、動的ネットワークにおける次の関係を推定する。
動的に進化するネットワークを表現するための隣接行列の使用は、異種、スパース、またはネットワーク形成から解析的に学習する能力を制限する。
時間的パラメータ化ネットワークモデルとして不均一な時間進化活動を表現する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-06T07:28:03Z) - Modeling Dynamic Heterogeneous Network for Link Prediction using
Hierarchical Attention with Temporal RNN [16.362525151483084]
我々はDyHATRと呼ばれる新しい動的ヘテロジニアスネットワーク埋め込み法を提案する。
階層的な注意を使って異質な情報を学習し、進化パターンを捉えるために時間的注意を伴う繰り返しニューラルネットワークを組み込む。
リンク予測のための4つの実世界のデータセットに対して,本手法をベンチマークした。
論文 参考訳(メタデータ) (2020-04-01T17:16:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。