論文の概要: Contrastive Representation Learning for Dynamic Link Prediction in Temporal Networks
- arxiv url: http://arxiv.org/abs/2408.12753v1
- Date: Thu, 22 Aug 2024 22:50:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-26 16:28:47.775585
- Title: Contrastive Representation Learning for Dynamic Link Prediction in Temporal Networks
- Title(参考訳): 時間ネットワークにおける動的リンク予測のためのコントラスト表現学習
- Authors: Amirhossein Nouranizadeh, Fatemeh Tabatabaei Far, Mohammad Rahmati,
- Abstract要約: 本稿では,時間ネットワークの表現を学習するための自己教師付き手法を提案する。
本稿では、時間的ネットワークの時間的参照経路を介して情報の流れをモデル化するための、繰り返しメッセージパッシングニューラルネットワークアーキテクチャを提案する。
提案手法は、Enron、COLAB、Facebookのデータセットでテストされる。
- 参考スコア(独自算出の注目度): 1.9389881806157312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evolving networks are complex data structures that emerge in a wide range of systems in science and engineering. Learning expressive representations for such networks that encode their structural connectivity and temporal evolution is essential for downstream data analytics and machine learning applications. In this study, we introduce a self-supervised method for learning representations of temporal networks and employ these representations in the dynamic link prediction task. While temporal networks are typically characterized as a sequence of interactions over the continuous time domain, our study focuses on their discrete-time versions. This enables us to balance the trade-off between computational complexity and precise modeling of the interactions. We propose a recurrent message-passing neural network architecture for modeling the information flow over time-respecting paths of temporal networks. The key feature of our method is the contrastive training objective of the model, which is a combination of three loss functions: link prediction, graph reconstruction, and contrastive predictive coding losses. The contrastive predictive coding objective is implemented using infoNCE losses at both local and global scales of the input graphs. We empirically show that the additional self-supervised losses enhance the training and improve the model's performance in the dynamic link prediction task. The proposed method is tested on Enron, COLAB, and Facebook datasets and exhibits superior results compared to existing models.
- Abstract(参考訳): 進化するネットワークは、科学と工学の幅広いシステムに現れる複雑なデータ構造である。
このようなネットワークの構造的接続性と時間的進化を符号化した表現表現を学習することは、下流のデータ分析や機械学習アプリケーションに不可欠である。
本研究では,時間ネットワークの表現を学習するための自己教師型手法を導入し,これらの表現を動的リンク予測タスクに応用する。
時間ネットワークは通常、連続時間領域上の相互作用のシーケンスとして特徴づけられるが、本研究では、その離散時間バージョンに焦点を当てる。
これにより、計算複雑性と相互作用の正確なモデリングのトレードオフをバランスさせることができる。
本稿では、時間的ネットワークの時間的参照経路を介して情報の流れをモデル化するための、繰り返しメッセージパッシングニューラルネットワークアーキテクチャを提案する。
提案手法の主な特徴は,リンク予測,グラフ再構成,およびコントラッシブ予測符号損失の3つの損失関数を組み合わせた,モデルの対照的な学習目標である。
入力グラフの局所スケールと大域スケールの両方でインフォNCE損失を用いて、対照的な予測符号化の目的を実装した。
動的リンク予測タスクにおいて,追加の自己監督的損失がトレーニングを促進し,モデルの性能を向上させることを実証的に示す。
提案手法は、Enron、COLAB、Facebookのデータセットでテストされ、既存のモデルよりも優れた結果を示す。
関連論文リスト
- Dynamic Encoding and Decoding of Information for Split Learning in
Mobile-Edge Computing: Leveraging Information Bottleneck Theory [1.1151919978983582]
Split Learning(スプリットラーニング)は、MLモデルを2つの部分(エンコーダとデコーダ)に分割する、プライバシ保護の分散学習パラダイムである。
モバイルエッジコンピューティングでは、エンコーダがユーザ機器(UE)に、デコーダがエッジネットワークに、分割学習によってネットワーク機能を訓練することができる。
本稿では,送信リソース消費の動的バランスと,共有潜在表現の情報化を両立させるためのフレームワークとトレーニング機構を提案する。
論文 参考訳(メタデータ) (2023-09-06T07:04:37Z) - Piecewise-Velocity Model for Learning Continuous-time Dynamic Node
Representations [0.0]
連続時間動的ネットワーク表現のためのPiecewise-Veable Model (PiVeM)。
超低次元空間において、PiVeMはネットワーク構造と力学をうまく表現できることを示す。
リンク予測などの下流タスクでは、関連する最先端メソッドよりも優れています。
論文 参考訳(メタデータ) (2022-12-23T13:57:56Z) - Dynamic Community Detection via Adversarial Temporal Graph
Representation Learning [17.487265170798974]
本研究では,脳ネットワークデータの少数のサンプルから動的コミュニティを検出するために,対角時間グラフ表現学習フレームワークを提案する。
さらに、このフレームワークは、時間グラフ表現の学習をガイドし、測定可能なモジュラリティ損失を最適化して、コミュニティのモジュラリティを最大化するために、敵対的なトレーニングを採用している。
論文 参考訳(メタデータ) (2022-06-29T08:44:22Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z) - Network Classifiers Based on Social Learning [71.86764107527812]
空間と時間に対して独立に訓練された分類器を結合する新しい手法を提案する。
提案したアーキテクチャは、ラベルのないデータで時間とともに予測性能を改善することができる。
この戦略は高い確率で一貫した学習をもたらすことが示され、未訓練の分類器に対して頑健な構造が得られる。
論文 参考訳(メタデータ) (2020-10-23T11:18:20Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z) - Deep learning of contagion dynamics on complex networks [0.0]
本稿では,ネットワーク上での感染動態の効果的なモデルを構築するために,ディープラーニングに基づく補完的アプローチを提案する。
任意のネットワーク構造をシミュレーションすることで,学習したダイナミックスの性質を学習データを超えて探索することが可能になる。
この結果は,ネットワーク上での感染動態の効果的なモデルを構築するために,ディープラーニングが新たな補完的な視点を提供することを示す。
論文 参考訳(メタデータ) (2020-06-09T17:18:34Z) - Link Prediction for Temporally Consistent Networks [6.981204218036187]
リンク予測は、動的ネットワークにおける次の関係を推定する。
動的に進化するネットワークを表現するための隣接行列の使用は、異種、スパース、またはネットワーク形成から解析的に学習する能力を制限する。
時間的パラメータ化ネットワークモデルとして不均一な時間進化活動を表現する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-06T07:28:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。