論文の概要: A Survey on Temporal Interaction Graph Representation Learning: Progress, Challenges, and Opportunities
- arxiv url: http://arxiv.org/abs/2505.04461v1
- Date: Wed, 07 May 2025 14:31:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.109766
- Title: A Survey on Temporal Interaction Graph Representation Learning: Progress, Challenges, and Opportunities
- Title(参考訳): 時間的相互作用グラフ表現学習に関する調査 : 進歩・課題・機会
- Authors: Pengfei Jiao, Hongjiang Chen, Xuan Guo, Zhidong Zhao, Dongxiao He, Di Jin,
- Abstract要約: 近年,時間的相互作用グラフ表現学習 (TIGRL) が注目されている。
TIGRLは、TIGのノードを低次元表現に埋め込み、構造情報と時間情報の両方を効果的に保存することを目的としている。
本稿では,最新のTIGRL手法を包括的に分類し,学習過程において活用される情報の種類に基づいて分類する手法を提案する。
- 参考スコア(独自算出の注目度): 16.99145758730107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal interaction graphs (TIGs), defined by sequences of timestamped interaction events, have become ubiquitous in real-world applications due to their capability to model complex dynamic system behaviors. As a result, temporal interaction graph representation learning (TIGRL) has garnered significant attention in recent years. TIGRL aims to embed nodes in TIGs into low-dimensional representations that effectively preserve both structural and temporal information, thereby enhancing the performance of downstream tasks such as classification, prediction, and clustering within constantly evolving data environments. In this paper, we begin by introducing the foundational concepts of TIGs and emphasize the critical role of temporal dependencies. We then propose a comprehensive taxonomy of state-of-the-art TIGRL methods, systematically categorizing them based on the types of information utilized during the learning process to address the unique challenges inherent to TIGs. To facilitate further research and practical applications, we curate the source of datasets and benchmarks, providing valuable resources for empirical investigations. Finally, we examine key open challenges and explore promising research directions in TIGRL, laying the groundwork for future advancements that have the potential to shape the evolution of this field.
- Abstract(参考訳): 時間的相互作用グラフ (TIG) は、複雑な動的システムの振る舞いをモデル化する能力により、現実世界のアプリケーションではユビキタスになっている。
その結果,近年,時間的相互作用グラフ表現学習 (TIGRL) が注目されている。
TIGRLの目的は、TIGにノードを埋め込むことで、構造情報と時間情報の両方を効果的に保存し、常に進化するデータ環境内での分類、予測、クラスタリングといった下流タスクのパフォーマンスを向上させることである。
本稿では,TIGの基本概念の導入から始めるとともに,時間的依存の重要な役割を強調する。
次に,最新のTIGRL手法を包括的に分類し,学習過程において活用される情報の種類を体系的に分類し,TIGに固有の課題に対処する手法を提案する。
さらなる研究と実践的応用を促進するため、データセットとベンチマークのソースをキュレートし、実証的な調査のための貴重なリソースを提供する。
最後に、重要なオープン課題について検討し、TIGRLにおける将来的な研究の方向性を探り、この分野の進化を形作る可能性を秘めている。
関連論文リスト
- T-GRAB: A Synthetic Diagnostic Benchmark for Learning on Temporal Graphs [6.199165061105655]
時間的グラフ推論ベンチマーク(T-GRAB)を導入し,TGNNの時間的推論能力を体系的に探究する。
T-GRABは、主要な時間的スキルを分離する制御された解釈可能なタスクを提供する。
これらの課題に対して,11の時間グラフ学習手法を評価し,時間パターンを一般化する能力の根本的な欠点を明らかにした。
論文 参考訳(メタデータ) (2025-07-14T11:47:43Z) - STRAP: Spatio-Temporal Pattern Retrieval for Out-of-Distribution Generalization [34.53308463024231]
本稿では,時空間探索型パターン学習フレームワークSTRAPを提案する。
推論中、STRAPは現在の入力と類似性に基づいてライブラリから関連するパターンを検索し、プラグイン・アンド・プレイ・プロンプト機構を介してモデルに注入する。
複数の実世界のストリーミンググラフデータセットに対する実験によると、STRAPはSTOODタスクの最先端STGNNベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-26T06:11:05Z) - Mind the truncation gap: challenges of learning on dynamic graphs with recurrent architectures [10.434476078553786]
連続時間動的グラフ(CTDG)は、機械学習(ML)アプローチに課題を提起する。
BPTT (Back Proagation-through-time) の短絡により, 1ホップ以上の依存関係の学習を制限できることが示されている。
我々はCTDGの重要性が増すにつれて、このギャップの理解と解決が不可欠であると主張する。
論文 参考訳(メタデータ) (2024-12-30T16:07:41Z) - Large Models for Time Series and Spatio-Temporal Data: A Survey and
Outlook [95.32949323258251]
時系列データ、特に時系列データと時間時間データは、現実世界のアプリケーションで広く使われている。
大規模言語やその他の基礎モデルの最近の進歩は、時系列データマイニングや時間データマイニングでの使用の増加に拍車を掛けている。
論文 参考訳(メタデータ) (2023-10-16T09:06:00Z) - A Survey on Temporal Knowledge Graph Completion: Taxonomy, Progress, and
Prospects [73.44022660932087]
時間的特性は、かなりの量の知識で顕著に明らかである。
新たな知識の継続的な出現、構造化されていないデータから構造化された情報を抽出するアルゴリズムの弱点、ソースデータセットにおける情報の欠如を引用する。
TKGC(Temporal Knowledge Graph Completion)のタスクは、利用可能な情報に基づいて行方不明アイテムを予測することを目的として、注目を集めている。
論文 参考訳(メタデータ) (2023-08-04T16:49:54Z) - Deep learning for dynamic graphs: models and benchmarks [16.851689741256912]
近年,Deep Graph Networks (DGNs) の研究が進展し,グラフ上の学習領域が成熟した。
この研究分野の成長にもかかわらず、まだ解決されていない重要な課題がまだ残っている。
論文 参考訳(メタデータ) (2023-07-12T12:02:36Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Deep Temporal Graph Clustering [77.02070768950145]
深部時間グラフクラスタリング(GC)のための汎用フレームワークを提案する。
GCは、時間グラフの相互作用シーケンスに基づくバッチ処理パターンに適合するディープクラスタリング技術を導入している。
我々のフレームワークは、既存の時間グラフ学習手法の性能を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-05-18T06:17:50Z) - A Survey of Knowledge Graph Reasoning on Graph Types: Static, Dynamic,
and Multimodal [57.8455911689554]
知識グラフ推論(KGR)は、知識グラフに基づくマイニング論理則に基づいて、既存の事実から新しい事実を推論することを目的としている。
質問応答やレコメンデーションシステムなど、多くのAIアプリケーションでKGを使うことに大きなメリットがあることが証明されている。
論文 参考訳(メタデータ) (2022-12-12T08:40:04Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - An Adaptive Federated Relevance Framework for Spatial Temporal Graph
Learning [14.353798949041698]
本稿では,空間時間グラフ学習のための適応型フェデレーション関連フレームワークであるFedRelを提案する。
フレームワークのコアとなるDynamic Inter-Intra Graph (DIIG)モジュールは、これらの機能を使用して空間時間グラフを生成することができる。
局所的なデータプライバシーを維持しながらモデルの一般化能力と性能を向上させるため、関連性駆動型フェデレーション学習モジュールを設計する。
論文 参考訳(メタデータ) (2022-06-07T16:12:17Z) - A Survey on Heterogeneous Graph Embedding: Methods, Techniques,
Applications and Sources [79.48829365560788]
異種情報ネットワーク (heterogenous information network) としても知られるヘテロジニアスグラフ (HGs) は、現実のシナリオにおいてユビキタス化されている。
HG埋め込みは、下流タスクのための不均一な構造と意味を保ちながら、低次元空間での表現を学習することを目的としている。
論文 参考訳(メタデータ) (2020-11-30T15:03:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。