論文の概要: WOODS: Benchmarks for Out-of-Distribution Generalization in Time Series
- arxiv url: http://arxiv.org/abs/2203.09978v2
- Date: Thu, 6 Apr 2023 14:21:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 18:21:04.668249
- Title: WOODS: Benchmarks for Out-of-Distribution Generalization in Time Series
- Title(参考訳): woods氏: 時系列におけるアウトオブディストリビューション一般化のベンチマーク
- Authors: Jean-Christophe Gagnon-Audet, Kartik Ahuja, Mohammad-Javad
Darvishi-Bayazi, Pooneh Mousavi, Guillaume Dumas, Irina Rish
- Abstract要約: WOODS: さまざまなデータモダリティをカバーする8つのオープンソースの時系列ベンチマークについて紹介する。
我々は、時系列タスクのための既存のOOD一般化アルゴリズムを改訂し、体系的なフレームワークを用いて評価する。
実験の結果,データセット上での経験的リスク最小化とOOD一般化アルゴリズムの改善の余地が広いことがわかった。
- 参考スコア(独自算出の注目度): 9.181035389003759
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models often fail to generalize well under distributional
shifts. Understanding and overcoming these failures have led to a research
field of Out-of-Distribution (OOD) generalization. Despite being extensively
studied for static computer vision tasks, OOD generalization has been
underexplored for time series tasks. To shine light on this gap, we present
WOODS: eight challenging open-source time series benchmarks covering a diverse
range of data modalities, such as videos, brain recordings, and sensor signals.
We revise the existing OOD generalization algorithms for time series tasks and
evaluate them using our systematic framework. Our experiments show a large room
for improvement for empirical risk minimization and OOD generalization
algorithms on our datasets, thus underscoring the new challenges posed by time
series tasks. Code and documentation are available at
https://woods-benchmarks.github.io .
- Abstract(参考訳): 機械学習モデルは、分散シフトの下でよく一般化できないことが多い。
これらの失敗を理解し克服することは、アウト・オブ・ディストリビューション(OOD)の一般化の研究分野に繋がった。
静的コンピュータビジョンタスクでは広く研究されているが、時系列タスクではOODの一般化が過小評価されている。
このギャップに光を当てるために、WOODS: ビデオ、脳記録、センサー信号など、さまざまなデータモダリティをカバーする8つの挑戦的なオープンソース時系列ベンチマークを紹介します。
時系列タスクのための既存のOOD一般化アルゴリズムを改訂し、体系的なフレームワークを用いて評価する。
実験の結果,我々のデータセットにおける経験的リスク最小化とOOD一般化アルゴリズムの改善の余地が大きく,時系列タスクによる新たな課題が強調された。
コードとドキュメントはhttps://woods-benchmarks.github.ioで入手できる。
関連論文リスト
- TimeSeriesBench: An Industrial-Grade Benchmark for Time Series Anomaly
Detection Models [22.23993481906648]
時系列異常検出(TSAD)は学術的にも産業的にも大きな関心を集めている。
しかし,既存のアルゴリズムでは,トレーニングパラダイム,オンライン検出パラダイム,評価基準の面でギャップがある。
業界グレードのベンチマークであるTimeSeriesBenchを提案する。
論文 参考訳(メタデータ) (2024-02-16T16:25:20Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Wild-Tab: A Benchmark For Out-Of-Distribution Generalization In Tabular
Regression [4.532517021515834]
アウト・オブ・ディストリビューション(OOD)の一般化は、ディープラーニングにおいて進行中の課題である。
表回帰タスクにおけるOOD一般化に適したベンチマークであるWild-Tabを提案する。
このベンチマークでは、天気予報や消費電力推定といった分野から得られた3つの産業データセットが組み込まれている。
これらの手法の多くは、未確認データのハイパフォーマンスレベルを維持するのに苦労することが多く、OOD性能は、分配性能と比較して顕著な低下を示している。
論文 参考訳(メタデータ) (2023-12-04T10:27:38Z) - DIVERSIFY: A General Framework for Time Series Out-of-distribution
Detection and Generalization [58.704753031608625]
時系列は、機械学習研究における最も困難なモダリティの1つである。
時系列上でのOODの検出と一般化は、その非定常性によって悩まされる傾向がある。
時系列の動的分布のOOD検出と一般化のためのフレームワークであるDIVERSIFYを提案する。
論文 参考訳(メタデータ) (2023-08-04T12:27:11Z) - Do-GOOD: Towards Distribution Shift Evaluation for Pre-Trained Visual
Document Understanding Models [68.12229916000584]
本研究では,文書画像関連タスクの微粒化解析のためのDO-GOOD(Out-of-distriion)ベンチマークを開発した。
次に、ロバスト性を評価し、5つの最新のVDU事前学習モデルと2つの典型的なOOD一般化アルゴリズムのきめ細かい解析を行う。
論文 参考訳(メタデータ) (2023-06-05T06:50:42Z) - Pseudo-OOD training for robust language models [78.15712542481859]
OOD検出は、あらゆる産業規模のアプリケーションに対する信頼性の高い機械学習モデルの鍵となるコンポーネントである。
In-distribution(IND)データを用いて擬似OODサンプルを生成するPOORE-POORE-POSthoc pseudo-Ood Regularizationを提案する。
我々は3つの現実世界の対話システムに関する枠組みを広く評価し、OOD検出における新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2022-10-17T14:32:02Z) - SimSCOOD: Systematic Analysis of Out-of-Distribution Generalization in
Fine-tuned Source Code Models [58.78043959556283]
本研究は,Low-Rank Adaptation (LoRA)ファインチューニング手法を含む,異なる微調整手法によるモデルの挙動について検討する。
解析の結果、LoRAファインチューニングは様々なシナリオにおけるフルファインチューニングよりも、OODの一般化性能が大幅に向上していることが判明した。
論文 参考訳(メタデータ) (2022-10-10T16:07:24Z) - OOD-Probe: A Neural Interpretation of Out-of-Domain Generalization [18.129450295108423]
探索モジュールを用いて,OODシステムをより微細な粒度で評価するフレキシブルなフレームワークを提案する。
表現は常にドメインに関する情報をエンコードしている。
高い探索結果は、ドメインの一般化性能と相関し、OOD一般化システムの開発におけるさらなる方向性をもたらす。
論文 参考訳(メタデータ) (2022-08-25T21:58:01Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Conditional GAN for timeseries generation [0.0]
実時間時系列データをモデル化するために,TSGAN(Time Series GAN)を提案する。
ベンチマーク時系列データベースから,70データセット上でTSGANを評価する。
論文 参考訳(メタデータ) (2020-06-30T02:19:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。