論文の概要: Your time series is worth a binary image: machine vision assisted deep
framework for time series forecasting
- arxiv url: http://arxiv.org/abs/2302.14390v1
- Date: Tue, 28 Feb 2023 08:17:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 17:28:14.205258
- Title: Your time series is worth a binary image: machine vision assisted deep
framework for time series forecasting
- Title(参考訳): 時系列はバイナリイメージに価値がある: 時系列予測のためのマシンビジョン支援ディープフレームワーク
- Authors: Luoxiao Yang, Xinqi Fan, Zijun Zhang
- Abstract要約: 本稿では,新しい機械ビジョン支援ディープ時系列解析(MV-DTSA)フレームワークを提案する。
MV-DTSAフレームワークは、新しいバイナリマシンビジョン時系列計量空間における時系列データを解析することによって動作する。
包括的な計算解析により,提案したMV-DTSAフレームワークは最先端の深部TSFモデルより優れていることが示された。
- 参考スコア(独自算出の注目度): 6.290910602456352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting (TSF) has been a challenging research area, and
various models have been developed to address this task. However, almost all
these models are trained with numerical time series data, which is not as
effectively processed by the neural system as visual information. To address
this challenge, this paper proposes a novel machine vision assisted deep time
series analysis (MV-DTSA) framework. The MV-DTSA framework operates by
analyzing time series data in a novel binary machine vision time series metric
space, which includes a mapping and an inverse mapping function from the
numerical time series space to the binary machine vision space, and a deep
machine vision model designed to address the TSF task in the binary space. A
comprehensive computational analysis demonstrates that the proposed MV-DTSA
framework outperforms state-of-the-art deep TSF models, without requiring
sophisticated data decomposition or model customization. The code for our
framework is accessible at https://github.com/IkeYang/
machine-vision-assisted-deep-time-series-analysis-MV-DTSA-.
- Abstract(参考訳): 時系列予測(tsf)は困難な研究分野であり、この課題に対処するために様々なモデルが開発されている。
しかし、これらのモデルのほとんどは数値時系列データで訓練されており、視覚情報ほど効果的には処理されない。
そこで本稿では,この課題に対処するために,mv-dtsa(deep time series analysis)フレームワークを提案する。
MV−DTSAフレームワークは、数値時系列空間からバイナリマシンビジョン空間への写像と逆マッピング関数を含む、新しいバイナリマシンビジョン時系列計量空間における時系列データを解析し、バイナリ空間におけるTLFタスクに対処するように設計されたディープマシンビジョンモデルを実行する。
包括的な計算分析により、MV-DTSAフレームワークは高度なデータ分解やモデルカスタマイズを必要とせず、最先端の深層TSFモデルより優れていることが示された。
私たちのフレームワークのコードはhttps://github.com/IkeYang/ machine-vision-assisted-deep-time-series-analysis-MV-DTSA-でアクセスできます。
関連論文リスト
- Moirai-MoE: Empowering Time Series Foundation Models with Sparse Mixture of Experts [103.725112190618]
本稿では,単一入出力プロジェクション層を用いたMoirai-MoEを紹介するとともに,多種多様な時系列パターンのモデリングを専門家の疎結合に委ねる。
39のデータセットに対する大規模な実験は、既存の基盤モデルよりも、分配シナリオとゼロショットシナリオの両方において、Moirai-MoEの優位性を実証している。
論文 参考訳(メタデータ) (2024-10-14T13:01:11Z) - Deep Time Series Models: A Comprehensive Survey and Benchmark [74.28364194333447]
時系列データは、現実世界のシナリオにおいて非常に重要である。
近年、時系列コミュニティで顕著なブレークスルーが見られた。
多様な分析タスクのためのディープ時系列モデルの公正なベンチマークとして、時系列ライブラリ(TSLib)をリリースします。
論文 参考訳(メタデータ) (2024-07-18T08:31:55Z) - ViTime: A Visual Intelligence-Based Foundation Model for Time Series Forecasting [38.87384888881476]
本稿では,時系列予測のためのビジュアルインテリジェンスに基づく新しい基礎モデルであるViTimeを提案する。
これまで目にしなかったさまざまな予測データセットの実験は、ViTimeが最先端のゼロショットパフォーマンスを達成することを実証している。
論文 参考訳(メタデータ) (2024-07-10T02:11:01Z) - From Pixels to Predictions: Spectrogram and Vision Transformer for Better Time Series Forecasting [15.234725654622135]
時系列予測は、様々な領域における意思決定において重要な役割を担っている。
近年,これらの課題に対処するために,コンピュータビジョンモデルを用いた画像駆動アプローチが研究されている。
時系列データの視覚的表現として時間周波数スペクトログラムを用いる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-17T00:14:29Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Learning Gaussian Mixture Representations for Tensor Time Series
Forecasting [8.31607451942671]
我々は、時間、位置、およびソース変数に暗示される各不均一成分を個別にモデル化する新しいTS予測フレームワークを開発する。
2つの実世界のTSデータセットによる実験結果は、最先端のベースラインと比較して、我々のアプローチの優位性を検証する。
論文 参考訳(メタデータ) (2023-06-01T06:50:47Z) - ViTs for SITS: Vision Transformers for Satellite Image Time Series [52.012084080257544]
ビジョン変換器(ViT)に基づく一般衛星画像時系列(SITS)処理のための完全アテンショナルモデルを提案する。
TSViTはSITSレコードを空間と時間で重複しないパッチに分割し、トークン化し、分解されたテンポロ空間エンコーダで処理する。
論文 参考訳(メタデータ) (2023-01-12T11:33:07Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。