論文の概要: DIVERSIFY: A General Framework for Time Series Out-of-distribution
Detection and Generalization
- arxiv url: http://arxiv.org/abs/2308.02282v1
- Date: Fri, 4 Aug 2023 12:27:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 13:01:56.346272
- Title: DIVERSIFY: A General Framework for Time Series Out-of-distribution
Detection and Generalization
- Title(参考訳): DIVERSIFY: 時系列出力検出と一般化のための汎用フレームワーク
- Authors: Wang Lu, Jindong Wang, Xinwei Sun, Yiqiang Chen, Xiangyang Ji, Qiang
Yang, Xing Xie
- Abstract要約: 時系列は、機械学習研究における最も困難なモダリティの1つである。
時系列上でのOODの検出と一般化は、その非定常性によって悩まされる傾向がある。
時系列の動的分布のOOD検出と一般化のためのフレームワークであるDIVERSIFYを提案する。
- 参考スコア(独自算出の注目度): 58.704753031608625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series remains one of the most challenging modalities in machine
learning research. The out-of-distribution (OOD) detection and generalization
on time series tend to suffer due to its non-stationary property, i.e., the
distribution changes over time. The dynamic distributions inside time series
pose great challenges to existing algorithms to identify invariant
distributions since they mainly focus on the scenario where the domain
information is given as prior knowledge. In this paper, we attempt to exploit
subdomains within a whole dataset to counteract issues induced by
non-stationary for generalized representation learning. We propose DIVERSIFY, a
general framework, for OOD detection and generalization on dynamic
distributions of time series. DIVERSIFY takes an iterative process: it first
obtains the "worst-case" latent distribution scenario via adversarial training,
then reduces the gap between these latent distributions. We implement DIVERSIFY
via combining existing OOD detection methods according to either extracted
features or outputs of models for detection while we also directly utilize
outputs for classification. In addition, theoretical insights illustrate that
DIVERSIFY is theoretically supported. Extensive experiments are conducted on
seven datasets with different OOD settings across gesture recognition, speech
commands recognition, wearable stress and affect detection, and sensor-based
human activity recognition. Qualitative and quantitative results demonstrate
that DIVERSIFY learns more generalized features and significantly outperforms
other baselines.
- Abstract(参考訳): 時系列は、機械学習研究における最も難しいモダリティの1つだ。
アウト・オブ・ディストリビューション(OOD)の検出と時系列上の一般化は、その非定常性、すなわち時間とともに分布が変化するために悩む傾向がある。
時系列内の動的分布は、ドメイン情報が事前の知識として与えられるシナリオに主眼を置いているため、不変分布を識別する既存のアルゴリズムに大きな課題をもたらす。
本稿では,データセット全体のサブドメインを活用して,非定常学習による一般化表現学習の問題に対処する。
時系列の動的分布に対するOODの検出と一般化のための汎用フレームワークであるDIVERSIFYを提案する。
DIVERSIFYは反復的なプロセスをとり、まず相手のトレーニングを通じて"Worst-case"潜伏分布のシナリオを取得し、次にこれらの潜伏分布間のギャップを小さくする。
既存のOOD検出手法を,抽出された特徴や検出対象モデルの出力に応じて組み合わせることで,DIVERSIFYを実装した。
さらに、理論的な洞察は、DIVERSIFYが理論的に支持されていることを示している。
ジェスチャー認識,音声コマンド認識,ウェアラブルストレスと感情検出,センサに基づく人間活動認識など,さまざまなOOD設定を持つ7つのデータセットに対して,大規模な実験を行った。
定性的かつ定量的な結果は、DIVERSIFYがより一般化された特徴を学習し、他のベースラインを大幅に上回ることを示す。
関連論文リスト
- DPU: Dynamic Prototype Updating for Multimodal Out-of-Distribution Detection [10.834698906236405]
機械学習モデルの堅牢性を保証するためには、アウト・オブ・ディストリビューション(OOD)検出が不可欠である。
マルチモーダルモデルの最近の進歩は、検出性能を高めるために複数のモダリティを活用する可能性を示している。
マルチモーダルOOD検出のための新しいプラグイン・アンド・プレイフレームワークであるDynamic Prototype Updating (DPU)を提案する。
論文 参考訳(メタデータ) (2024-11-12T22:43:16Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Expecting The Unexpected: Towards Broad Out-Of-Distribution Detection [9.656342063882555]
5種類の分布変化について検討し,OOD検出手法の性能評価を行った。
その結果,これらの手法は未知のクラスの検出に優れるが,他のタイプの分散シフトに遭遇した場合,その性能は不整合であることがわかった。
我々は、より一貫性があり包括的なOOD検出ソリューションを提供するアンサンブルアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-22T14:52:44Z) - Anomaly Detection under Distribution Shift [24.094884041252044]
異常検出(AD)は、通常のトレーニングサンプルのセットからパターンを学習し、テストデータの異常サンプルを特定することを目的とした、重要な機械学習タスクである。
既存のAD研究の多くは、トレーニングデータとテストデータは同一のデータ分布から引き出されると仮定しているが、テストデータは大きな分散シフトを持つ可能性がある。
トレーニングおよび推論段階のOOD標準試料の分布ギャップを最小化することにより, 多様な分布シフトに対する新しいロバストADアプローチを導入する。
論文 参考訳(メタデータ) (2023-03-24T07:39:08Z) - Generalized Representations Learning for Time Series Classification [28.230863650758447]
時間的複雑性は時系列分類における未知の潜在分布に起因していると主張する。
本研究では,ジェスチャー認識,音声コマンド認識,ウェアラブルストレスと感情検出,センサによる人間の活動認識に関する実験を行う。
論文 参考訳(メタデータ) (2022-09-15T03:36:31Z) - Causality-Based Multivariate Time Series Anomaly Detection [63.799474860969156]
我々は、因果的観点から異常検出問題を定式化し、多変量データを生成するための通常の因果的メカニズムに従わない事例として、異常を考察する。
次に、まずデータから因果構造を学習し、次に、あるインスタンスが局所因果機構に対して異常であるかどうかを推定する因果検出手法を提案する。
我々は、実世界のAIOpsアプリケーションに関するケーススタディと同様に、シミュレートされたデータセットとパブリックなデータセットの両方を用いて、私たちのアプローチを評価します。
論文 参考訳(メタデータ) (2022-06-30T06:00:13Z) - Gated Domain Units for Multi-source Domain Generalization [14.643490853965385]
分散シフト(DS)は、テスト時のデータセットとトレーニング時のデータセットが異なる場合に発生する。
GDU(Gated Domain Units)で構成されるモジュール型ニューラルネットワークレイヤを導入し,各潜伏する基本分布の表現を学習する。
推論中、各基本分布の表現と新しい観測結果を比較することで、重み付けされた学習機械のアンサンブルを作成することができる。
論文 参考訳(メタデータ) (2022-06-24T18:12:38Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。