論文の概要: CODiT: Conformal Out-of-Distribution Detection in Time-Series Data
- arxiv url: http://arxiv.org/abs/2207.11769v1
- Date: Sun, 24 Jul 2022 16:41:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:10:43.812721
- Title: CODiT: Conformal Out-of-Distribution Detection in Time-Series Data
- Title(参考訳): codit:時系列データにおけるコンフォーマントアウトオブディストリビューション検出
- Authors: Ramneet Kaur, Kaustubh Sridhar, Sangdon Park, Susmit Jha, Anirban Roy,
Oleg Sokolsky, Insup Lee
- Abstract要約: 多くの応用において、機械学習モデルへの入力は時間列を形成する。
共形異常検出フレームワークにおける非整合性尺度として,非分布時間同値からの偏差を用いる。
自律運転におけるコンピュータビジョンデータセットにおける最先端結果の達成によるCODiTの有効性について述べる。
- 参考スコア(独自算出の注目度): 11.565104282674973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models are prone to making incorrect predictions on inputs
that are far from the training distribution. This hinders their deployment in
safety-critical applications such as autonomous vehicles and healthcare. The
detection of a shift from the training distribution of individual datapoints
has gained attention. A number of techniques have been proposed for such
out-of-distribution (OOD) detection. But in many applications, the inputs to a
machine learning model form a temporal sequence. Existing techniques for OOD
detection in time-series data either do not exploit temporal relationships in
the sequence or do not provide any guarantees on detection. We propose using
deviation from the in-distribution temporal equivariance as the non-conformity
measure in conformal anomaly detection framework for OOD detection in
time-series data.Computing independent predictions from multiple conformal
detectors based on the proposed measure and combining these predictions by
Fisher's method leads to the proposed detector CODiT with guarantees on false
detection in time-series data. We illustrate the efficacy of CODiT by achieving
state-of-the-art results on computer vision datasets in autonomous driving. We
also show that CODiT can be used for OOD detection in non-vision datasets by
performing experiments on the physiological GAIT sensory dataset. Code, data,
and trained models are available at
https://github.com/kaustubhsridhar/time-series-OOD.
- Abstract(参考訳): 機械学習モデルは、トレーニング分布から遠くない入力に対して誤った予測を行う傾向にあります。
これにより、自動運転車や医療といった安全クリティカルなアプリケーションへの展開が妨げられる。
個々のデータポイントのトレーニング分布からのシフトの検出が注目されている。
このようなアウト・オブ・ディストリビューション(OOD)の検出には,いくつかの手法が提案されている。
しかし、多くの応用において、機械学習モデルへの入力は時間系列を形成する。
時系列データにおける既存のOOD検出技術は、シーケンス内の時間的関係を利用していないか、検出に関する保証を提供していない。
本稿では, 時系列データにおけるOOD検出のための共形異常検出フレームワークの非整合性尺度として, 非分布時間同値からの偏差を用いて, 提案した測定値に基づいて複数の共形検出器からの独立予測を計算し, これらの予測をフィッシャーの手法で組み合わせることで, 時系列データにおける誤検出の保証を伴う検出CODiTへと導いた。
自律運転におけるコンピュータビジョンデータセットの最先端結果を達成することで,coditの有効性を示す。
また,CODiTは生理的GAIT知覚データセットで実験を行うことにより,非視覚的データセットにおけるOOD検出に利用できることを示す。
コード、データ、トレーニングされたモデルはhttps://github.com/kaustubhsridhar/time-series-OOD.comで入手できる。
関連論文リスト
- Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Using Semantic Information for Defining and Detecting OOD Inputs [3.9577682622066264]
アウト・オブ・ディストリビューション(OOD)検出は近年注目されている。
現在の検出器がトレーニングデータセットのバイアスを継承していることを示します。
これにより、現在のOOD検出器はトレーニング分布の外にある入力に不透過であり、同じ意味情報を持つことができる。
我々は,MNISTおよびCOCOデータセットのトレーニングデータから抽出した意味情報に基づいてOOD検出を行う。
論文 参考訳(メタデータ) (2023-02-21T21:31:20Z) - PULL: Reactive Log Anomaly Detection Based On Iterative PU Learning [58.85063149619348]
本稿では,推定故障時間ウィンドウに基づくリアクティブ異常検出のための反復ログ解析手法PULLを提案する。
我々の評価では、PULLは3つの異なるデータセットで10のベンチマークベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2023-01-25T16:34:43Z) - DEGAN: Time Series Anomaly Detection using Generative Adversarial
Network Discriminators and Density Estimation [0.0]
我々は,GANに基づく異常検出フレームワークDEGANを提案する。
これは、適切に構成された識別器(D)をスタンドアロンの異常予測器に訓練するための入力として、通常の時系列データにのみ依存する。
論文 参考訳(メタデータ) (2022-10-05T04:32:12Z) - Out-of-Distribution Detection with Hilbert-Schmidt Independence
Optimization [114.43504951058796]
異常検出タスクはAIの安全性において重要な役割を担っている。
ディープニューラルネットワーク分類器は通常、アウト・オブ・ディストリビューション(OOD)の入力を、信頼性の高いイン・ディストリビューション・クラスに誤って分類する傾向がある。
我々は,OOD検出タスクにおいて実用的かつ理論的に有効な代替確率論的パラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-26T15:59:55Z) - Augmenting Softmax Information for Selective Classification with
Out-of-Distribution Data [7.221206118679026]
既存のポストホック法はOOD検出でのみ評価した場合とは大きく異なる性能を示す。
本稿では,特徴に依存しない情報を用いて,ソフトマックスに基づく信頼度を向上するSCOD(Softmax Information Retaining Combination, SIRC)の新たな手法を提案する。
多様なImageNetスケールのデータセットと畳み込みニューラルネットワークアーキテクチャの実験は、SIRCがSCODのベースラインを一貫して一致または上回っていることを示している。
論文 参考訳(メタデータ) (2022-07-15T14:39:57Z) - TFDPM: Attack detection for cyber-physical systems with diffusion
probabilistic models [10.389972581904999]
CPSにおける攻撃検出タスクの一般的なフレームワークであるTFDPMを提案する。
履歴データから時間パターンと特徴パターンを同時に抽出する。
ノイズスケジューリングネットワークは、検出速度を3倍に向上させる。
論文 参考訳(メタデータ) (2021-12-20T13:13:29Z) - Tracking the risk of a deployed model and detecting harmful distribution
shifts [105.27463615756733]
実際には、デプロイされたモデルのパフォーマンスが大幅に低下しないという、良心的なシフトを無視することは理にかなっている。
我々は,警告を発射する有効な方法は,(a)良性な警告を無視しながら有害なシフトを検知し,(b)誤報率を増大させることなく,モデル性能の連続的なモニタリングを可能にすることを論じる。
論文 参考訳(メタデータ) (2021-10-12T17:21:41Z) - DAE : Discriminatory Auto-Encoder for multivariate time-series anomaly
detection in air transportation [68.8204255655161]
識別オートエンコーダ(DAE)と呼ばれる新しい異常検出モデルを提案する。
通常のLSTMベースのオートエンコーダのベースラインを使用するが、いくつかのデコーダがあり、それぞれ特定の飛行フェーズのデータを取得する。
その結果,DAEは精度と検出速度の両方で良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-09-08T14:07:55Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。