論文の概要: Efficient Out-of-Distribution Detection Using Latent Space of
$\beta$-VAE for Cyber-Physical Systems
- arxiv url: http://arxiv.org/abs/2108.11800v1
- Date: Thu, 26 Aug 2021 14:03:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-27 14:14:43.195045
- Title: Efficient Out-of-Distribution Detection Using Latent Space of
$\beta$-VAE for Cyber-Physical Systems
- Title(参考訳): サイバー物理システムのための$\beta$-vaeの潜在空間を用いた効率的な分散検出
- Authors: Shreyas Ramakrishna, Zahra Rahiminasab, Gabor Karsai, Arvind Easwaran,
Abhishek Dubey
- Abstract要約: ディープニューラルネットワークは、自律型サイバー物理システムの設計に積極的に利用されている。
これらのモデルの利点は、高次元状態空間を処理し、操作状態空間のコンパクトな代理表現を学ぶ能力である。
モデルのトレーニングに使用されるサンプル観測は、物理的環境全体の状態空間をカバーできない可能性がある。
結果として、システムはトレーニング分布に属さない条件下で運用される可能性が高い。
- 参考スコア(独自算出の注目度): 5.3285526740173745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks are actively being used in the design of autonomous
Cyber-Physical Systems (CPSs). The advantage of these models is their ability
to handle high-dimensional state-space and learn compact surrogate
representations of the operational state spaces. However, the problem is that
the sampled observations used for training the model may never cover the entire
state space of the physical environment, and as a result, the system will
likely operate in conditions that do not belong to the training distribution.
These conditions that do not belong to training distribution are referred to as
Out-of-Distribution (OOD). Detecting OOD conditions at runtime is critical for
the safety of CPS. In addition, it is also desirable to identify the context or
the feature(s) that are the source of OOD to select an appropriate control
action to mitigate the consequences that may arise because of the OOD
condition. In this paper, we study this problem as a multi-labeled time series
OOD detection problem over images, where the OOD is defined both sequentially
across short time windows (change points) as well as across the training data
distribution. A common approach to solving this problem is the use of
multi-chained one-class classifiers. However, this approach is expensive for
CPSs that have limited computational resources and require short inference
times. Our contribution is an approach to design and train a single
$\beta$-Variational Autoencoder detector with a partially disentangled latent
space sensitive to variations in image features. We use the feature sensitive
latent variables in the latent space to detect OOD images and identify the most
likely feature(s) responsible for the OOD. We demonstrate our approach using an
Autonomous Vehicle in the CARLA simulator and a real-world automotive dataset
called nuImages.
- Abstract(参考訳): Deep Neural Networksは、自律型サイバー物理システム(CPS)の設計に積極的に利用されている。
これらのモデルの利点は、高次元状態空間を扱い、操作状態空間のコンパクトな代理表現を学ぶ能力である。
しかし、モデルのトレーニングに使用されるサンプル観察は、物理的環境の全状態空間をカバーできない可能性があり、その結果、システムはトレーニング分布に属さない条件下で運用される可能性が高い。
トレーニングディストリビューションに属さないこれらの条件は、out-of-Distribution (OOD)と呼ばれる。
実行時のOOD条件の検出は、CPSの安全性に不可欠である。
さらに、OOD条件によって生じる可能性のある結果を軽減するために、適切な制御アクションを選択するために、OODのソースであるコンテキストや特徴を特定することも望ましい。
本稿では,この問題を画像上でのマルチラベル時系列OOD検出問題として検討し,OODを短時間のウィンドウ(変更点)とトレーニングデータ分布の両方で逐次定義する。
この問題を解決する一般的なアプローチは、マルチチェーンの1クラス分類器の使用である。
しかし、計算資源が限られており、短い推論時間を必要とするCPSにとっては、このアプローチは高価である。
私たちの貢献は、画像特徴のバリエーションに敏感な部分的に不連続な潜在空間を持つ1つの$\beta$-variational autoencoder検出器の設計と訓練のためのアプローチです。
我々は、潜在空間における特徴に敏感な潜伏変数を用いて、OOD画像を検出し、OODの原因となる最も可能性の高い特徴を特定する。
我々は、CARLAシミュレーターとnuImagesと呼ばれる現実世界の自動車データセットにAutonomous Vehicleを用いたアプローチを実証する。
関連論文リスト
- From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Large Class Separation is not what you need for Relational
Reasoning-based OOD Detection [12.578844450586]
Out-Of-Distribution (OOD) 検出法はセマンティックノベルティを識別して解を提供する。
これらの手法の多くは、既知のデータの学習段階を利用しており、これは正規性の概念を捉えるためのモデル(または微調整)を訓練することを意味する。
実行可能な代替手段は、大きな事前訓練されたモデルによって生成された埋め込み空間の類似性を評価することであり、それ以上の学習は行わない。
論文 参考訳(メタデータ) (2023-07-12T14:10:15Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - A Simple Test-Time Method for Out-of-Distribution Detection [45.11199798139358]
本稿では,OOD検出のための簡易なテスト時間線形訓練法を提案する。
分布外である入力画像の確率は、ニューラルネットワークが抽出した特徴と驚くほど線形に相関していることがわかった。
本稿では,提案手法のオンライン版を提案し,実世界のアプリケーションでより実用的な性能を実現する。
論文 参考訳(メタデータ) (2022-07-17T16:02:58Z) - WiP Abstract : Robust Out-of-distribution Motion Detection and
Localization in Autonomous CPS [3.464656011246703]
ディープラーニングのための堅牢なアウト・オブ・ディストリビューション(OOD)検出フレームワークを提案する。
提案手法は,従来の光学フロー操作と表現学習を組み合わせることで,リアルタイムに動画の駆動から異常な動きを検出する。
運転シミュレーションデータセットの評価は,本手法が関連する研究よりも統計的に頑健であることを示している。
論文 参考訳(メタデータ) (2021-07-25T06:20:05Z) - OODformer: Out-Of-Distribution Detection Transformer [15.17006322500865]
現実世界の安全クリティカルなアプリケーションでは、新しいデータポイントがOODであるかどうかを認識することが重要です。
本稿では,OODformer というファースト・オブ・ザ・キンドな OOD 検出アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-07-19T15:46:38Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Out-of-Distribution Detection for Automotive Perception [58.34808836642603]
ニューラルネットワーク(NN)は、自律運転におけるオブジェクト分類に広く使われている。
NNは、アウト・オブ・ディストリビューション(OOD)データとして知られるトレーニングデータセットで適切に表現されていない入力データでフェールすることができる。
本稿では,OODデータを必要としない入力がOODであるか否かを判定し,推論の計算コストを増大させる方法を提案する。
論文 参考訳(メタデータ) (2020-11-03T01:46:35Z) - Out-of-Distribution Detection in Multi-Label Datasets using Latent Space
of $\beta$-VAE [6.177271244427367]
学習可能なコンポーネント(LEC)は、さまざまな認識に基づく自律的なタスクで広く使用されている。
これらのコンポーネントは、気象条件や日時、トラフィック密度といったマルチモーダルな要素を持つ大規模なイメージデータセットでトレーニングされる。
これらの要因にバリエーションがあるかどうかをテストしている間、コンポーネントは混乱し、信頼性の低い予測が得られます。
論文 参考訳(メタデータ) (2020-03-10T17:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。