論文の概要: Joint Embeddings Go Temporal
- arxiv url: http://arxiv.org/abs/2509.25449v1
- Date: Mon, 29 Sep 2025 19:57:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.30019
- Title: Joint Embeddings Go Temporal
- Title(参考訳): Joint Embeddings Go Temporal
- Authors: Sofiane Ennadir, Siavash Golkar, Leopoldo Sarra,
- Abstract要約: JEPA(Joint Emmbedding Predictive Architectures)は、潜在分野における自己教師型学習の実現を目的として導入されたアーキテクチャである。
時系列JEPA (TS-JEPA) は、時系列表現学習に特化したアーキテクチャである。
TS-JEPAは、異なる標準データセット上で、現在の最先端のベースラインに適合または超えることができることを示す。
- 参考スコア(独自算出の注目度): 5.2741154046624255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning has seen great success recently in unsupervised representation learning, enabling breakthroughs in natural language and image processing. However, these methods often rely on autoregressive and masked modeling, which aim to reproduce masked information in the input, which can be vulnerable to the presence of noise or confounding variables. To address this problem, Joint-Embedding Predictive Architectures (JEPA) has been introduced with the aim to perform self-supervised learning in the latent space. To leverage these advancements in the domain of time series, we introduce Time Series JEPA (TS-JEPA), an architecture specifically adapted for time series representation learning. We validate TS-JEPA on both classification and forecasting, showing that it can match or surpass current state-of-the-art baselines on different standard datasets. Notably, our approach demonstrates a strong performance balance across diverse tasks, indicating its potential as a robust foundation for learning general representations. Thus, this work lays the groundwork for developing future time series foundation models based on Joint Embedding.
- Abstract(参考訳): 自己教師付き学習は、最近、教師なし表現学習において大きな成功を収め、自然言語と画像処理のブレークスルーを可能にした。
しかし、これらの手法は、しばしば自己回帰とマスク付きモデリングに依存しており、これは入力中のマスキング情報を再現することを目的としており、ノイズや境界変数の存在に弱い可能性がある。
この問題に対処するため,JEPA (Joint-Embedding Predictive Architectures) が,潜伏空間における自己教師型学習の実現を目的として導入された。
時系列の領域におけるこれらの進歩を活用するために,時系列表現学習に特化したアーキテクチャである時系列JEPA(TS-JEPA)を導入する。
我々はTS-JEPAを分類と予測の両方で検証し、異なる標準データセット上で現在の最先端のベースラインに適合または超えることを示す。
特に,本手法は多種多様なタスクに対して高い性能バランスを示し,汎用表現を学習するための堅牢な基盤としての可能性を示している。
このようにして、この研究は、ジョイント・エンベディングに基づく未来の時系列基礎モデル開発の基礎となるものとなる。
関連論文リスト
- UniSTD: Towards Unified Spatio-Temporal Learning across Diverse Disciplines [64.84631333071728]
本稿では,時間的モデリングのためのトランスフォーマーベースの統合フレームワークであるbfUnistageを紹介する。
我々の研究は、タスク固有の視覚テキストが時間学習のための一般化可能なモデルを構築することができることを示した。
また、時間的ダイナミクスを明示的に組み込むための時間的モジュールも導入する。
論文 参考訳(メタデータ) (2025-03-26T17:33:23Z) - ACT-JEPA: Novel Joint-Embedding Predictive Architecture for Efficient Policy Representation Learning [90.41852663775086]
ACT-JEPAは模倣学習と自己教師型学習を統合する新しいアーキテクチャである。
我々はアクションシーケンスと抽象的な観察シーケンスを予測するポリシーを訓練する。
実験の結果,ACT-JEPAは時間環境の動的学習によって表現の質を向上させることがわかった。
論文 参考訳(メタデータ) (2025-01-24T16:41:41Z) - LaT-PFN: A Joint Embedding Predictive Architecture for In-context Time-series Forecasting [0.0]
我々は,ゼロショット予測を可能にする強力な埋め込み空間を持つ基本時系列モデルであるLatntTimePFNを紹介する。
我々は、PFNとJEPA(Joint Embedding Predictive Architecture)フレームワークの新たな統合を利用して、潜在空間におけるコンテキスト内学習を行う。
論文 参考訳(メタデータ) (2024-05-16T13:44:56Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Self-Distilled Representation Learning for Time Series [45.51976109748732]
時系列データに対する自己教師型学習は、最近自然言語処理とコンピュータビジョンで発表されたものと類似した可能性を秘めている。
我々は,Data2vec自己蒸留フレームワークに基づく,概念的にシンプルだが強力な非競合的アプローチを提案する。
UCRやUEAのアーカイブやETTやElectricityのデータセットなど、最先端の自己教師型学習手法と比較して、下流タスクとして分類と予測を行うアプローチの競争力を実証する。
論文 参考訳(メタデータ) (2023-11-19T14:34:01Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。