論文の概要: UTCS: Effective Unsupervised Temporal Community Search with Pre-training of Temporal Dynamics and Subgraph Knowledge
- arxiv url: http://arxiv.org/abs/2506.02784v1
- Date: Tue, 03 Jun 2025 12:11:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:09.416721
- Title: UTCS: Effective Unsupervised Temporal Community Search with Pre-training of Temporal Dynamics and Subgraph Knowledge
- Title(参考訳): UTCS:時間的ダイナミクスとサブグラフ知識の事前学習による効果的な教師なし時間的コミュニティ検索
- Authors: Yue Zhang, Yankai Chen, Yingli Zhou, Yucan Guo, Xiaolin Han, Chenhao Ma,
- Abstract要約: 多くの現実世界のアプリケーションでは、実体間の進化する関係を時間グラフとしてモデル化することができ、それぞれのエッジは相互作用時間を表すタイムスタンプを持つ。
伝統的な手法は一般的に事前に定義された部分グラフ構造を必要とするが、必ずしも事前に知られているわけではない。
時間的ダイナミクスとサブグラフ知識モデルの事前学習を併用したtextbfUncontain textbfTemporal textbfCommunity textbfSearch を提案する。
- 参考スコア(独自算出の注目度): 15.006782872246044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many real-world applications, the evolving relationships between entities can be modeled as temporal graphs, where each edge has a timestamp representing the interaction time. As a fundamental problem in graph analysis, {\it community search (CS)} in temporal graphs has received growing attention but exhibits two major limitations: (1) Traditional methods typically require predefined subgraph structures, which are not always known in advance. (2) Learning-based methods struggle to capture temporal interaction information. To fill this research gap, in this paper, we propose an effective \textbf{U}nsupervised \textbf{T}emporal \textbf{C}ommunity \textbf{S}earch with pre-training of temporal dynamics and subgraph knowledge model (\textbf{\model}). \model~contains two key stages: offline pre-training and online search. In the first stage, we introduce multiple learning objectives to facilitate the pre-training process in the unsupervised learning setting. In the second stage, we identify a candidate subgraph and compute community scores using the pre-trained node representations and a novel scoring mechanism to determine the final community members. Experiments on five real-world datasets demonstrate the effectiveness.
- Abstract(参考訳): 多くの現実世界のアプリケーションでは、実体間の進化する関係を時間グラフとしてモデル化することができ、それぞれのエッジは相互作用時間を表すタイムスタンプを持つ。
グラフ解析の根本的な問題として、時間グラフにおけるコミュニティサーチ(CS)が注目されているが、2つの大きな制限がある。
2)学習に基づく手法は時間的相互作用情報を取得するのに苦労する。
本研究のギャップを埋めるために,時間的ダイナミクスとサブグラフ知識モデルの事前学習を伴う実効的な \textbf{U}nsupervised \textbf{T}emporal \textbf{C}ommunity \textbf{S}earch (\textbf{\model}) を提案する。
にはオフラインの事前トレーニングとオンライン検索という2つの重要なステージがある。
第1段階では、教師なし学習環境における事前学習プロセスを容易にするために、複数の学習目標を導入する。
第2段階では、事前学習したノード表現と、最終的なコミュニティメンバーを決定するための新しいスコアリング機構を用いて、候補部分グラフを特定し、コミュニティスコアを計算する。
5つの実世界のデータセットの実験は、その効果を実証している。
関連論文リスト
- Hierarchical Temporal Context Learning for Camera-based Semantic Scene Completion [57.232688209606515]
カメラによるセマンティックシーンの補完を改善するための,新たな時間的文脈学習パラダイムであるHTCLを提案する。
提案手法は,Semantic KITTIベンチマークで1st$をランク付けし,mIoUの点でLiDARベースの手法を超えている。
論文 参考訳(メタデータ) (2024-07-02T09:11:17Z) - Node-Time Conditional Prompt Learning In Dynamic Graphs [14.62182210205324]
DYGPROMPTは動的グラフモデリングのための新しい事前学習および迅速な学習フレームワークである。
我々はノードと時間の特徴が相互に特徴付けることを認識し、下流タスクにおけるノード時間パターンの進化をモデル化するための2つの条件ネットを提案する。
論文 参考訳(メタデータ) (2024-05-22T19:10:24Z) - Self-Supervised Temporal Graph learning with Temporal and Structural Intensity Alignment [53.72873672076391]
時間グラフ学習は、動的情報を用いたグラフベースのタスクのための高品質な表現を生成することを目的としている。
本稿では,時間的および構造的情報の両方を抽出する時間的グラフ学習のためのS2Tという自己教師型手法を提案する。
S2Tは、いくつかのデータセットにおける最先端の競合と比較して、少なくとも10.13%のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-02-15T06:36:04Z) - Taming Local Effects in Graph-based Spatiotemporal Forecasting [28.30604130617646]
時相グラフニューラルネットワークは時系列予測に有効であることが示されている。
本稿では,グラフに基づく時間的予測におけるグローバル性と局所性の間の相互作用を理解することを目的とする。
このようなアーキテクチャにトレーニング可能なノード埋め込みを組み込むことを合理化するための方法論的枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-08T14:18:56Z) - Predicting Temporal Sets with Deep Neural Networks [50.53727580527024]
本稿では,時間集合予測のためのディープニューラルネットワークに基づく統合解を提案する。
ユニークな視点は、セットレベルの共起グラフを構築することで要素関係を学ぶことである。
我々は,要素や集合の時間依存性を適応的に学習するアテンションベースのモジュールを設計する。
論文 参考訳(メタデータ) (2020-06-20T03:29:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。