論文の概要: Intensity Profile Projection: A Framework for Continuous-Time
Representation Learning for Dynamic Networks
- arxiv url: http://arxiv.org/abs/2306.06155v2
- Date: Mon, 30 Oct 2023 10:47:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 23:25:35.246236
- Title: Intensity Profile Projection: A Framework for Continuous-Time
Representation Learning for Dynamic Networks
- Title(参考訳): Intensity Profile Projection:動的ネットワークのための連続時間表現学習フレームワーク
- Authors: Alexander Modell, Ian Gallagher, Emma Ceccherini, Nick Whiteley and
Patrick Rubin-Delanchy
- Abstract要約: 本稿では、連続時間動的ネットワークデータのための表現学習フレームワークIntensity Profile Projectionを提案する。
このフレームワークは3つの段階から構成される: 対の強度関数を推定し、強度再構成誤差の概念を最小化する射影を学習する。
さらに、推定軌跡の誤差を厳密に制御する推定理論を開発し、その表現がノイズに敏感な追従解析に利用できることを示す。
- 参考スコア(独自算出の注目度): 50.2033914945157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new representation learning framework, Intensity Profile
Projection, for continuous-time dynamic network data. Given triples $(i,j,t)$,
each representing a time-stamped ($t$) interaction between two entities
($i,j$), our procedure returns a continuous-time trajectory for each node,
representing its behaviour over time. The framework consists of three stages:
estimating pairwise intensity functions, e.g. via kernel smoothing; learning a
projection which minimises a notion of intensity reconstruction error; and
constructing evolving node representations via the learned projection. The
trajectories satisfy two properties, known as structural and temporal
coherence, which we see as fundamental for reliable inference. Moreoever, we
develop estimation theory providing tight control on the error of any estimated
trajectory, indicating that the representations could even be used in quite
noise-sensitive follow-on analyses. The theory also elucidates the role of
smoothing as a bias-variance trade-off, and shows how we can reduce the level
of smoothing as the signal-to-noise ratio increases on account of the algorithm
`borrowing strength' across the network.
- Abstract(参考訳): 連続時間動的ネットワークデータのための新しい表現学習フレームワークIntensity Profile Projectionを提案する。
2つのエンティティ(i,j$)間の時間スタンプ(t$)の相互作用を表すトリプル$(i,j,t)$を与えられた場合、我々の手順は各ノードに対して連続時間軌跡を返す。
このフレームワークは3つの段階から構成される:例えば、カーネルの滑らか化によるペアエント関数の推定、強度再構成誤差を最小化するプロジェクションの学習、学習されたプロジェクションを通して進化するノード表現の構築。
軌道は構造的コヒーレンスと時間的コヒーレンスという2つの性質を満たしており、これは信頼できる推論の基本的なものである。
さらに,推定軌跡の誤差を厳密に制御できる推定理論を考案し,ノイズに敏感な追従解析でもその表現が利用できることを示す。
この理論はまた、偏分散トレードオフとしての平滑化の役割を解明し、ネットワーク全体の「ボーリング強度」のアルゴリズムを考慮すると、信号対雑音比が増加するにつれて平滑化のレベルをいかに低減できるかを示す。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - CTRL: Continuous-Time Representation Learning on Temporal Heterogeneous Information Network [32.42051167404171]
時間HINを用いた連続時間表現学習モデルを提案する。
我々は、高次ネットワーク構造の進化を捉えるために、将来の事象(サブグラフ)予測タスクでモデルを訓練する。
その結果,本モデルは性能を著しく向上し,様々な最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-05-11T03:39:22Z) - Distillation Enhanced Time Series Forecasting Network with Momentum Contrastive Learning [7.4106801792345705]
長周期時系列予測のための革新的蒸留強化フレームワークであるDE-TSMCLを提案する。
具体的には、タイムスタンプをマスクするかどうかを適応的に学習する学習可能なデータ拡張機構を設計する。
そこで本研究では,時系列のサンプル間および時間内相関を探索するために,モーメントを更新したコントラスト学習タスクを提案する。
複数のタスクからモデル損失を発生させることで、下流予測タスクの効果的な表現を学習することができる。
論文 参考訳(メタデータ) (2024-01-31T12:52:10Z) - Understanding and Constructing Latent Modality Structures in Multi-modal
Representation Learning [53.68371566336254]
優れたパフォーマンスの鍵は、完全なモダリティアライメントではなく、有意義な潜在モダリティ構造にある、と我々は主張する。
具体的には,1)モダリティ内正規化のための深い特徴分離損失,2)モダリティ間正規化のためのブラウン橋損失,3)モダリティ内正規化およびモダリティ間正規化のための幾何学的整合損失を設計する。
論文 参考訳(メタデータ) (2023-03-10T14:38:49Z) - Self-Supervised Temporal Graph learning with Temporal and Structural Intensity Alignment [53.72873672076391]
時間グラフ学習は、動的情報を用いたグラフベースのタスクのための高品質な表現を生成することを目的としている。
本稿では,時間的および構造的情報の両方を抽出する時間的グラフ学習のためのS2Tという自己教師型手法を提案する。
S2Tは、いくつかのデータセットにおける最先端の競合と比較して、少なくとも10.13%のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-02-15T06:36:04Z) - DyTed: Disentangled Representation Learning for Discrete-time Dynamic
Graph [59.583555454424]
離散時間動的グラフ、すなわちDyTedのための新しいディペンタングル表現学習フレームワークを提案する。
本研究では,時間不変の表現と時間変動の表現を効果的に識別する構造的コントラスト学習とともに,時間的クリップのコントラスト学習タスクを特別に設計する。
論文 参考訳(メタデータ) (2022-10-19T14:34:12Z) - Representation Learning via Global Temporal Alignment and
Cycle-Consistency [20.715813546383178]
時間列の整合に基づく表現学習のための弱教師付き手法を提案する。
従来方式に比べて大幅な性能向上を報告しています。
さらに、時間アライメントフレームワークの2つのアプリケーション、すなわち3Dポーズ再構築ときめ細かいオーディオ/ビジュアル検索を報告します。
論文 参考訳(メタデータ) (2021-05-11T17:34:04Z) - Multiple Object Tracking with Correlation Learning [16.959379957515974]
本研究では,局所相関モジュールを用いて,対象と周辺環境のトポロジカルな関係をモデル化する。
具体的には,各空間の位置とその文脈の密接な対応を確立し,自己教師付き学習を通じて相関量を明確に制約する。
提案手法は, 相関学習と優れた性能の相関学習の有効性を示し, MOT17では76.5%, IDF1では73.6%の最先端MOTAが得られる。
論文 参考訳(メタデータ) (2021-04-08T06:48:02Z) - Consistency Guided Scene Flow Estimation [159.24395181068218]
CGSFは立体映像からの3次元シーン構造と動きの同時再構成のための自己教師型フレームワークである。
提案モデルでは,課題の画像の相違やシーンフローを確実に予測できることを示す。
最先端技術よりも優れた一般化を実現し、目に見えない領域に迅速かつ堅牢に適応する。
論文 参考訳(メタデータ) (2020-06-19T17:28:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。