論文の概要: TimeOmni-VL: Unified Models for Time Series Understanding and Generation
- arxiv url: http://arxiv.org/abs/2602.17149v1
- Date: Thu, 19 Feb 2026 07:50:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.806322
- Title: TimeOmni-VL: Unified Models for Time Series Understanding and Generation
- Title(参考訳): TimeOmni-VL:時系列理解と生成のための統一モデル
- Authors: Tong Guan, Sheng Pan, Johan Barthelemy, Zhao Li, Yujun Cai, Cesare Alippi, Ming Jin, Shirui Pan,
- Abstract要約: Time Omni-VLは、時系列の理解と生成を統合するビジョン中心のフレームワークである。
Time Omni-VLは、高忠実度生成のための明示的な制御信号として時系列理解を利用する最初の方法である。
実験により、この統一されたアプローチは意味的理解と数値的精度の両方を著しく改善することを確認した。
- 参考スコア(独自算出の注目度): 66.55423802406078
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent time series modeling faces a sharp divide between numerical generation and semantic understanding, with research showing that generation models often rely on superficial pattern matching, while understanding-oriented models struggle with high-fidelity numerical output. Although unified multimodal models (UMMs) have bridged this gap in vision, their potential for time series remains untapped. We propose TimeOmni-VL, the first vision-centric framework that unifies time series understanding and generation through two key innovations: (1) Fidelity-preserving bidirectional mapping between time series and images (Bi-TSI), which advances Time Series-to-Image (TS2I) and Image-to-Time Series (I2TS) conversions to ensure near-lossless transformations. (2) Understanding-guided generation. We introduce TSUMM-Suite, a novel dataset consists of six understanding tasks rooted in time series analytics that are coupled with two generation tasks. With a calibrated Chain-of-Thought, TimeOmni-VL is the first to leverage time series understanding as an explicit control signal for high-fidelity generation. Experiments confirm that this unified approach significantly improves both semantic understanding and numerical precision, establishing a new frontier for multimodal time series modeling.
- Abstract(参考訳): 近年の時系列モデリングは、数値生成と意味理解の間に急激な隔たりに直面しており、生成モデルは表層パターンマッチングにしばしば依存し、理解指向モデルは高忠実度数値出力に苦しむ。
統一マルチモーダルモデル(UMM)はこのビジョンのギャップを埋めてきたが、時系列のポテンシャルは未解決のままである。
1)時系列と画像間の双方向マッピング(Bi-TSI)を忠実に保存し、時系列から画像への変換(TS2I)と画像から画像への変換(I2TS)を進化させ、ほぼロスレス変換を保証する。
2)理解誘導世代
本稿では,時系列解析に根ざした6つの理解タスクからなる新しいデータセットであるtsuMM-Suiteを紹介する。
キャリブレーションされたChain-of-Thoughtを用いて、TimeOmni-VLは、高忠実度生成のための明示的な制御信号として時系列理解を利用する最初の方法である。
実験により、この統一されたアプローチは意味理解と数値的精度の両方を大幅に改善し、マルチモーダル時系列モデリングのための新たなフロンティアを確立することが確認された。
関連論文リスト
- Temporal-Visual Semantic Alignment: A Unified Architecture for Transferring Spatial Priors from Vision Models to Zero-Shot Temporal Tasks [19.299293037292113]
TimeArtistは、時系列のゆらぎと視覚概念のセマンティックレベルアライメントの先駆けとなる、時間-視覚変換フレームワークである。
我々の研究は、時間的ダイナミクスと視覚的セマンティクスのギャップを埋めて、クロスモーダル生成の新しいパラダイムを確立します。
論文 参考訳(メタデータ) (2025-11-25T02:35:48Z) - DiM-TS: Bridge the Gap between Selective State Space Models and Time Series for Generative Modeling [11.836475971106125]
時系列データは、さまざまな分野において重要な役割を果たすが、プライバシーに関する問題に直面している。
そこで,本研究では,モデルが認知過程において重要なパターンを識別する能力を高めるために,Lag Fusion MambaとPermutation Scanning Mambaを提案する。
またDiffusion Mamba for Time Series (DiM-TS)を導入し、時間周期性およびチャネル間相関をよりよく保存する高品質な時系列生成モデルを提案する。
論文 参考訳(メタデータ) (2025-11-23T06:48:03Z) - Harnessing Vision Models for Time Series Analysis: A Survey [85.65718718797643]
本研究は, 時系列解析におけるLLMよりも視覚モデルの方が優れていることを示す。
既存の方法の包括的かつ詳細な概要を提供し、詳細な分類学の双対的な見解を提供する。
このフレームワークに関わる前処理と後処理のステップにおける課題に対処する。
論文 参考訳(メタデータ) (2025-02-13T00:42:11Z) - Time-VLM: Exploring Multimodal Vision-Language Models for Augmented Time Series Forecasting [26.4608782425897]
Time-VLMは、時間的、視覚的、テキスト的なモダリティを橋渡しして予測を強化する新しいフレームワークである。
本フレームワークは,(1)記憶バンク相互作用を通じて時間的特徴を抽出する検索型学習者,(2)時系列を情報的画像としてエンコードするビジョン型学習者,(3)文脈的テキスト記述を生成するテキスト型学習者,の3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2025-02-06T05:59:45Z) - General Time-series Model for Universal Knowledge Representation of Multivariate Time-Series data [61.163542597764796]
周波数領域で異なる時間粒度(または対応する周波数分解能)の時系列が異なる結合分布を示すことを示す。
時間領域と周波数領域の両方からタイムアウェア表現を学習するために,新しいFourierナレッジアテンション機構を提案する。
自己回帰的空白埋め込み事前学習フレームワークを時系列解析に初めて組み込み、生成タスクに依存しない事前学習戦略を実現する。
論文 参考訳(メタデータ) (2025-02-05T15:20:04Z) - TimeMAE: Self-Supervised Representations of Time Series with Decoupled
Masked Autoencoders [55.00904795497786]
トランスフォーマネットワークに基づく転送可能な時系列表現を学習するための,新しい自己教師型パラダイムであるTimeMAEを提案する。
TimeMAEは双方向符号化方式を用いて時系列の豊富な文脈表現を学習する。
新たに挿入されたマスク埋め込みによって生じる不一致を解消するため、分離されたオートエンコーダアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-03-01T08:33:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。