論文の概要: Graph2Video: Leveraging Video Models to Model Dynamic Graph Evolution
- arxiv url: http://arxiv.org/abs/2603.13360v1
- Date: Mon, 09 Mar 2026 07:23:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.122139
- Title: Graph2Video: Leveraging Video Models to Model Dynamic Graph Evolution
- Title(参考訳): Graph2Video:ダイナミックグラフの進化をモデル化するビデオモデル
- Authors: Hua Liu, Yanbin Wei, Fei Xing, Tyler Derr, Haoyu Han, Yu Zhang,
- Abstract要約: 対象リンクの時間的近傍を「グラフフレーム」のシーケンスとみなすビデオインスパイアされたフレームワークを提案する。
Graph2Videoは、時間順のサブグラフフレームを“グラフビデオ”に積み重ねることで、きめ細かい局所的変動と長距離時間ダイナミクスの両方をキャプチャする。
軽量でプラグアンドプレイのリンク中心メモリユニットとして機能するリンクレベルの埋め込みを生成する。
- 参考スコア(独自算出の注目度): 18.744688870055803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic graphs are common in real-world systems such as social media, recommender systems, and traffic networks. Existing dynamic graph models for link prediction often fall short in capturing the complexity of temporal evolution. They tend to overlook fine-grained variations in temporal interaction order, struggle with dependencies that span long time horizons, and offer limited capability to model pair-specific relational dynamics. To address these challenges, we propose \textbf{Graph2Video}, a video-inspired framework that views the temporal neighborhood of a target link as a sequence of "graph frames". By stacking temporally ordered subgraph frames into a "graph video", Graph2Video leverages the inductive biases of video foundation models to capture both fine-grained local variations and long-range temporal dynamics. It generates a link-level embedding that serves as a lightweight and plug-and-play link-centric memory unit. This embedding integrates seamlessly into existing dynamic graph encoders, effectively addressing the limitations of prior approaches. Extensive experiments on benchmark datasets show that Graph2Video outperforms state-of-the-art baselines on the link prediction task in most cases. The results highlight the potential of borrowing spatio-temporal modeling techniques from computer vision as a promising and effective approach for advancing dynamic graph learning.
- Abstract(参考訳): ダイナミックグラフは、ソーシャルメディア、レコメンダシステム、トラフィックネットワークのような現実世界のシステムで一般的なものである。
リンク予測のための既存の動的グラフモデルは、時相進化の複雑さを捉えるのに不足することが多い。
それらは、時間的相互作用の順序のきめ細かいバリエーションを見落とし、長い時間的水平線にまたがる依存関係と苦労し、ペア固有のリレーショナルダイナミクスをモデル化する限られた能力を提供する傾向があります。
これらの課題に対処するために、ターゲットリンクの時間的近傍を「グラフフレーム」のシーケンスとして見るビデオインスパイアされたフレームワークである \textbf{Graph2Video} を提案する。
時間的に順序付けられたサブグラフフレームを"グラフビデオ"に積み重ねることで、Graph2Videoはビデオファンデーションモデルの帰納バイアスを利用して、きめ細かい局所的変動と長距離時間ダイナミクスの両方をキャプチャする。
軽量でプラグアンドプレイのリンク中心メモリユニットとして機能するリンクレベルの埋め込みを生成する。
この埋め込みは既存の動的グラフエンコーダにシームレスに統合され、従来のアプローチの限界に効果的に対処する。
ベンチマークデータセットの大規模な実験によると、ほとんどの場合、Graph2Videoはリンク予測タスクにおける最先端のベースラインを上回っている。
この結果は,動的グラフ学習の進歩に向けた,有望かつ効果的なアプローチとして,コンピュータビジョンから時空間モデリング技術を借りることの可能性を強調した。
関連論文リスト
- Language-Guided Graph Representation Learning for Video Summarization [96.2763459348758]
本稿では,映像要約のためのLGRLN(Language-guided Graph Representation Learning Network)を提案する。
具体的には,ビデオフレームを構造化グラフに変換して時間的順序と文脈依存性を保存するビデオグラフ生成装置を提案する。
提案手法は,複数のベンチマークにおいて既存手法より優れている。
論文 参考訳(メタデータ) (2025-11-14T04:35:48Z) - Understanding Long Videos via LLM-Powered Entity Relation Graphs [51.13422967711056]
GraphVideoAgentは、ビデオシーケンスを通して視覚的エンティティ間の進化する関係をマップし、監視するフレームワークである。
当社の手法は,業界ベンチマークと比較した場合,顕著な効果を示す。
論文 参考訳(メタデータ) (2025-01-27T10:57:24Z) - Retrieval Augmented Generation for Dynamic Graph Modeling [15.09162213134372]
動的グラフモデリングのための新しいフレームワークRetrieval-Augmented Generation(RAG4DyG)を提案する。
RAG4DyGは、より広いグラフ構造から文脈的および時間的に関連する例を組み込むことで、動的グラフ予測を強化する。
提案するフレームワークは、トランスダクティブシナリオとインダクティブシナリオの両方に有効であるように設計されている。
論文 参考訳(メタデータ) (2024-08-26T09:23:35Z) - Local-Global Information Interaction Debiasing for Dynamic Scene Graph
Generation [51.92419880088668]
マルチタスク学習に基づく新しいDynSGGモデルDynSGG-MTLを提案する。
長期的人間の行動は、大域的な制約に適合する複数のシーングラフを生成するためにモデルを監督し、尾の述語を学べないモデルを避ける。
論文 参考訳(メタデータ) (2023-08-10T01:24:25Z) - Learning Dynamic Graph Embeddings with Neural Controlled Differential Equations [40.12574909984131]
本稿では,ノード埋め込みと構造力学を協調的にモデル化する連続時間フレームワークを提案する。
筆者らのフレームワークは,グラフを断片的に統合せずに動的に表現できる機能など,いくつかの望ましい特徴を呈している。
論文 参考訳(メタデータ) (2023-02-22T12:59:38Z) - Multi-Task Edge Prediction in Temporally-Dynamic Video Graphs [16.121140184388786]
MTD-GNNは,複数種類の関係に対して時間動的エッジを予測するグラフネットワークである。
時間-動的グラフネットワークにおける複数の関係をモデル化することは相互に有益であることを示す。
論文 参考訳(メタデータ) (2022-12-06T10:41:00Z) - Time-aware Dynamic Graph Embedding for Asynchronous Structural Evolution [60.695162101159134]
既存の作業は、動的グラフを変更のシーケンスとして見るだけである。
動的グラフを接合時間に付随する時間的エッジシーケンスとして定式化する。
頂点とエッジのタイムパン
組み込みにはタイムアウェアなTransformerが提案されている。
vertexの動的接続と学習へのToEs。
頂点表現
論文 参考訳(メタデータ) (2022-07-01T15:32:56Z) - Dynamic Graph Learning-Neural Network for Multivariate Time Series
Modeling [2.3022070933226217]
静的および動的グラフ学習ニューラルネットワーク(GL)という新しいフレームワークを提案する。
モデルはそれぞれ、データから静的グラフ行列と動的グラフ行列を取得し、長期パターンと短期パターンをモデル化する。
ほぼすべてのデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-12-06T08:19:15Z) - Spatio-Temporal Joint Graph Convolutional Networks for Traffic
Forecasting [75.10017445699532]
近年、時間グラフモデリング問題として交通予測の定式化に焦点が移っている。
本稿では,道路網における交通予測の精度向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-25T08:45:14Z) - Spatial-Temporal Transformer for Dynamic Scene Graph Generation [34.190733855032065]
本研究では,(1)入力フレームを用いてフレーム内の視覚的関係を抽出する空間エンコーダと,(2)空間エンコーダの出力を入力とする時間デコーダの2つのコアモジュールからなるニューラルネットワークを提案する。
我々の方法はベンチマークデータセットAction Genome(AG)で検証されている。
論文 参考訳(メタデータ) (2021-07-26T16:30:30Z) - TCL: Transformer-based Dynamic Graph Modelling via Contrastive Learning [87.38675639186405]
我々は,動的に進化するグラフを連続的に扱う,TCLと呼ばれる新しいグラフニューラルネットワークアプローチを提案する。
我々の知る限りでは、これは動的グラフ上の表現学習にコントラスト学習を適用する最初の試みである。
論文 参考訳(メタデータ) (2021-05-17T15:33:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。