論文の概要: Visual Time Series Forecasting: An Image-driven Approach
- arxiv url: http://arxiv.org/abs/2011.09052v3
- Date: Fri, 19 Nov 2021 19:38:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 03:56:19.274687
- Title: Visual Time Series Forecasting: An Image-driven Approach
- Title(参考訳): Visual Time Series Forecasting: イメージ駆動型アプローチ
- Authors: Srijan Sood, Zhen Zeng, Naftali Cohen, Tucker Balch, and Manuela
Veloso
- Abstract要約: エージェントが決定を下すためには時系列予測が不可欠である。
実践者からインスパイアされた我々は、視覚的な予測を生成する新しいフレームワークを作成することで、このトピックを再想像する。
- 参考スコア(独自算出の注目度): 16.57996422431636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting is essential for agents to make decisions.
Traditional approaches rely on statistical methods to forecast given past
numeric values. In practice, end-users often rely on visualizations such as
charts and plots to reason about their forecasts. Inspired by practitioners, we
re-imagine the topic by creating a novel framework to produce visual forecasts,
similar to the way humans intuitively do. In this work, we leverage advances in
deep learning to extend the field of time series forecasting to a visual
setting. We capture input data as an image and train a model to produce the
subsequent image. This approach results in predicting distributions as opposed
to pointwise values. We examine various synthetic and real datasets with
diverse degrees of complexity. Our experiments show that visual forecasting is
effective for cyclic data but somewhat less for irregular data such as stock
price. Importantly, when using image-based evaluation metrics, we find the
proposed visual forecasting method to outperform various numerical baselines,
including ARIMA and a numerical variation of our method. We demonstrate the
benefits of incorporating vision-based approaches in forecasting tasks -- both
for the quality of the forecasts produced, as well as the metrics that can be
used to evaluate them.
- Abstract(参考訳): エージェントが決定を下すためには時系列予測が不可欠である。
伝統的なアプローチは、過去の数値を予測するために統計手法に依存している。
実際には、エンドユーザーはチャートやプロットのような視覚化を使って予測を行うことが多い。
実践者からインスパイアされた私たちは、人間が直感的に行うのと同じように、視覚的な予測を生成するための新しいフレームワークを作成することで、トピックを再想像します。
本研究では,ディープラーニングの進歩を活用して時系列予測の分野を視覚的環境に拡張する。
入力データを画像としてキャプチャし,モデルをトレーニングして次の画像を生成する。
このアプローチは、ポイントワイズ値とは対照的に分布を予測する。
複雑度が異なる様々な合成データと実データについて検討する。
実験の結果,ビジュアル予測は循環データには有効であるが,株価などの不規則データには若干少ないことがわかった。
重要な点として,画像に基づく評価指標を用いた場合,ARIMAや数値変動など,様々な数値ベースラインを上回る視覚予測手法が提案されている。
我々は、予測タスクにビジョンベースのアプローチを組み込むことの利点を実証する -- 生成された予測の品質と、それらを評価するのに使用できるメトリクスの両方のために。
関連論文リスト
- Deconfounding Time Series Forecasting [1.5967186772129907]
時系列予測は様々な領域において重要な課題であり、正確な予測は情報的な意思決定を促進する。
従来の予測手法は、しばしば将来の結果を予測するために変数の現在の観測に依存している。
本稿では,過去のデータから得られた潜在的共同設立者の表現を取り入れた予測手法を提案する。
論文 参考訳(メタデータ) (2024-10-27T12:45:42Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト・イズ・キー (Context is Key) (CiK) は、時系列予測ベンチマークであり、様々な種類のテキストコンテキストと数値データをペアリングする。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
実験では、文脈情報の導入の重要性を強調し、LLMに基づく予測モデルを用いた場合の驚くべき性能を示すとともに、それらの重要な欠点を明らかにした。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Forecasting with Deep Learning: Beyond Average of Average of Average Performance [0.393259574660092]
予測モデルの評価と比較の現在のプラクティスは、パフォーマンスを1つのスコアにまとめることに集中しています。
複数の視点からモデルを評価するための新しいフレームワークを提案する。
このフレームワークの利点は、最先端のディープラーニングアプローチと古典的な予測手法を比較して示す。
論文 参考訳(メタデータ) (2024-06-24T12:28:22Z) - Probing the Robustness of Time-series Forecasting Models with
CounterfacTS [1.823020744088554]
我々は,時系列予測タスクにおけるディープラーニングモデルの堅牢性を調査するツールであるCounterfacTSを提示し,公開する。
CounterfacTSにはユーザフレンドリーなインターフェースがあり、時系列データとその予測を視覚化、比較、定量化することができる。
論文 参考訳(メタデータ) (2024-03-06T07:34:47Z) - Performative Time-Series Forecasting [71.18553214204978]
我々は,機械学習の観点から,パフォーマンス時系列予測(PeTS)を定式化する。
本稿では,予測分布シフトに対する遅延応答の概念を活用する新しい手法であるFeature Performative-Shifting(FPS)を提案する。
新型コロナウイルスの複数の時系列モデルと交通予報タスクを用いた総合的な実験を行った。
論文 参考訳(メタデータ) (2023-10-09T18:34:29Z) - TempSAL -- Uncovering Temporal Information for Deep Saliency Prediction [64.63645677568384]
本稿では,逐次時間間隔でサリエンシマップを出力する新たなサリエンシ予測モデルを提案する。
提案手法は,学習した時間マップを組み合わせることで,サリエンシ予測を局所的に調整する。
私たちのコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2023-01-05T22:10:16Z) - Joint Forecasting of Panoptic Segmentations with Difference Attention [72.03470153917189]
シーン内の全てのオブジェクトを共同で予測する新しいパノプティックセグメンテーション予測モデルについて検討する。
提案したモデルをCityscapesとAIODriveデータセット上で評価する。
論文 参考訳(メタデータ) (2022-04-14T17:59:32Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Visual Time Series Forecasting: An Image-driven Approach [15.98940788318796]
入力データを画像としてキャプチャし、モデルを訓練してその後の画像を生成する。
このアプローチは、ポイントワイズ値とは対照的に分布を予測する。
実験の結果,我々の予測ツールは循環データには有効であるが,株価などの不規則データには有効ではないことがわかった。
論文 参考訳(メタデータ) (2021-07-02T20:59:48Z) - Forecast with Forecasts: Diversity Matters [9.66075743192747]
近年,時系列特徴を用いた予測組み合わせモデルの構築が,予測領域で盛んに行われている。
本研究では,歴史的データから生成した予測へ焦点を移して特徴を抽出することを提案する。
本稿では,対応する予測に基づいてモデルプールの多様性を決定的特徴として計算し,メタラーニングを用いて多様性に基づく予測組み合わせモデルを構築する。
論文 参考訳(メタデータ) (2020-12-03T02:14:02Z) - Predicting Temporal Sets with Deep Neural Networks [50.53727580527024]
本稿では,時間集合予測のためのディープニューラルネットワークに基づく統合解を提案する。
ユニークな視点は、セットレベルの共起グラフを構築することで要素関係を学ぶことである。
我々は,要素や集合の時間依存性を適応的に学習するアテンションベースのモジュールを設計する。
論文 参考訳(メタデータ) (2020-06-20T03:29:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。