論文の概要: Improving Temporal Link Prediction via Temporal Walk Matrix Projection
- arxiv url: http://arxiv.org/abs/2410.04013v1
- Date: Sat, 5 Oct 2024 03:09:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 14:40:27.487903
- Title: Improving Temporal Link Prediction via Temporal Walk Matrix Projection
- Title(参考訳): 時間的歩行行列投影による時間的リンク予測の改善
- Authors: Xiaodong Lu, Leilei Sun, Tongyu Zhu, Weifeng Lv,
- Abstract要約: 本稿では、時間的歩行行列を組み込んだTPNetと呼ばれる新しい時間的グラフニューラルネットワークを提案し、時間的情報と構造的情報の両方を同時に検討する。
TPNetは、ほとんどのデータセットで他のベースラインよりも優れており、SOTAベースラインと比較して最大で33.3倍のスピードアップを実現している。
- 参考スコア(独自算出の注目度): 23.67269478569189
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal link prediction, aiming at predicting future interactions among entities based on historical interactions, is crucial for a series of real-world applications. Although previous methods have demonstrated the importance of relative encodings for effective temporal link prediction, computational efficiency remains a major concern in constructing these encodings. Moreover, existing relative encodings are usually constructed based on structural connectivity, where temporal information is seldom considered. To address the aforementioned issues, we first analyze existing relative encodings and unify them as a function of temporal walk matrices. This unification establishes a connection between relative encodings and temporal walk matrices, providing a more principled way for analyzing and designing relative encodings. Based on this analysis, we propose a new temporal graph neural network called TPNet, which introduces a temporal walk matrix that incorporates the time decay effect to simultaneously consider both temporal and structural information. Moreover, TPNet designs a random feature propagation mechanism with theoretical guarantees to implicitly maintain the temporal walk matrices, which improves the computation and storage efficiency. Experimental results on 13 benchmark datasets verify the effectiveness and efficiency of TPNet, where TPNet outperforms other baselines on most datasets and achieves a maximum speedup of $33.3 \times$ compared to the SOTA baseline. Our code can be found at \url{https://github.com/lxd99/TPNet}.
- Abstract(参考訳): 時系列リンク予測は、歴史的相互作用に基づくエンティティ間の将来の相互作用を予測することを目的としており、一連の実世界のアプリケーションにとって不可欠である。
従来の手法では、効率的な時間的リンク予測のための相対的エンコーディングの重要性が証明されてきたが、計算効率はこれらのエンコーディングを構築する上でも大きな関心事である。
さらに、既存の相対符号化は通常、時間情報がほとんど考慮されない構造接続に基づいて構築される。
上記の問題に対処するために、我々はまず既存の相対的エンコーディングを分析し、時間的歩行行列の関数としてそれらを統一する。
この統合は、相対的エンコーディングと時間的ウォーク行列の接続を確立し、相対的エンコーディングを分析し設計するためのより原則化された方法を提供する。
本研究では,時間減衰効果を組み込んだ時間的歩行行列を導入し,時間的情報と構造的情報の両方を同時に検討する,TPNetと呼ばれる新しい時間的グラフニューラルネットワークを提案する。
さらに、TPNetは、時間的歩行行列を暗黙的に維持する理論的な保証を持つランダムな特徴伝達機構を設計し、計算と記憶効率を向上させる。
13のベンチマークデータセットによる実験結果は、TPNetの有効性と効率を検証し、TPNetはほとんどのデータセットで他のベースラインよりも優れ、SOTAベースラインと比較して最大で33.3 \times$のスピードアップを達成する。
我々のコードは \url{https://github.com/lxd99/TPNet} にある。
関連論文リスト
- Contrastive Representation Learning for Dynamic Link Prediction in Temporal Networks [1.9389881806157312]
本稿では,時間ネットワークの表現を学習するための自己教師付き手法を提案する。
本稿では、時間的ネットワークの時間的参照経路を介して情報の流れをモデル化するための、繰り返しメッセージパッシングニューラルネットワークアーキテクチャを提案する。
提案手法は、Enron、COLAB、Facebookのデータセットでテストされる。
論文 参考訳(メタデータ) (2024-08-22T22:50:46Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Direct Embedding of Temporal Network Edges via Time-Decayed Line Graphs [51.51417735550026]
時間的ネットワーク上での機械学習の方法は、一般的に2つの制限のうちの少なくとも1つを示す。
ネットワークのライングラフは,各インタラクションのノードを含むもので,インタラクション間の時間差に基づいて,このグラフのエッジを重み付けする。
実世界のネットワークにおける実験結果から,エッジ分類と時間リンク予測の両方において,本手法の有効性と有効性を示す。
論文 参考訳(メタデータ) (2022-09-30T18:24:13Z) - Scalable Spatiotemporal Graph Neural Networks [14.415967477487692]
グラフニューラルネットワーク(GNN)は、しばしば予測アーキテクチャのコアコンポーネントである。
ほとんどの時間前GNNでは、計算複雑性はグラフ内のリンクの回数のシーケンスの長さの2乗係数までスケールする。
本稿では,時間的・空間的両方のダイナミックスを効率的に符号化するスケーラブルなアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-09-14T09:47:38Z) - Temporal Link Prediction via Adjusted Sigmoid Function and 2-Simplex
Sructure [7.478752512210058]
調整されたシグモイド関数と2-simplex structure(TLPSS)を用いた新しい時間リンク予測モデルを提案する。
提案モデルでは,他のベースライン手法と比較して平均15%のリンク予測性能が向上する。
論文 参考訳(メタデータ) (2022-06-20T01:32:02Z) - Spatiotemporal convolutional network for time-series prediction and
causal inference [21.895413699349966]
時系列のマルチステップ予測を効率的に正確にレンダリングするために、ニューラルネットワークコンピューティングフレームワークi.N.N.を開発した。
このフレームワークは、人工知能(AI)や機械学習分野の実践的応用において大きな可能性を秘めている。
論文 参考訳(メタデータ) (2021-07-03T06:20:43Z) - Spatio-Temporal Graph Scattering Transform [54.52797775999124]
グラフニューラルネットワークは、十分な高品質のトレーニングデータがないために、現実のシナリオでは実用的ではないかもしれない。
我々は時間的データを解析するための数学的に設計された新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2020-12-06T19:49:55Z) - On a Bernoulli Autoregression Framework for Link Discovery and
Prediction [1.9290392443571387]
本稿では,自己回帰過程のベルヌーイ一般化に基づく二項列の動的予測フレームワークを提案する。
本稿では,さらに多くの補助的ネットワークを介し,付加的な情報を利用する新たな問題を提案する。
既存の作業とは対照的に、勾配に基づく推定アプローチは非常に効率的で、数百万のノードを持つネットワークにスケールすることができる。
論文 参考訳(メタデータ) (2020-07-23T05:58:22Z) - Supporting Optimal Phase Space Reconstructions Using Neural Network
Architecture for Time Series Modeling [68.8204255655161]
位相空間特性を暗黙的に学習する機構を持つ人工ニューラルネットワークを提案する。
私たちのアプローチは、ほとんどの最先端戦略と同じくらいの競争力があるか、あるいは優れているかのどちらかです。
論文 参考訳(メタデータ) (2020-06-19T21:04:47Z) - Forecasting Sequential Data using Consistent Koopman Autoencoders [52.209416711500005]
クープマン理論に関連する新しい物理学に基づく手法が導入された。
本稿では,既存の作業の多くと異なり,前方・後方のダイナミクスを生かした新しいコンシスタント・クープマン・オートエンコーダモデルを提案する。
このアプローチの鍵となるのは、一貫性のある力学と関連するクープマン作用素との相互作用を探索する新しい解析である。
論文 参考訳(メタデータ) (2020-03-04T18:24:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。