論文の概要: Out-of-Distribution Detection in Multi-Label Datasets using Latent Space
of $\beta$-VAE
- arxiv url: http://arxiv.org/abs/2003.08740v1
- Date: Tue, 10 Mar 2020 17:12:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 20:44:27.314429
- Title: Out-of-Distribution Detection in Multi-Label Datasets using Latent Space
of $\beta$-VAE
- Title(参考訳): $\beta$-VAEの潜在空間を用いたマルチラベルデータセットの分布外検出
- Authors: Vijaya Kumar Sundar, Shreyas Ramakrishna, Zahra Rahiminasab, Arvind
Easwaran, Abhishek Dubey
- Abstract要約: 学習可能なコンポーネント(LEC)は、さまざまな認識に基づく自律的なタスクで広く使用されている。
これらのコンポーネントは、気象条件や日時、トラフィック密度といったマルチモーダルな要素を持つ大規模なイメージデータセットでトレーニングされる。
これらの要因にバリエーションがあるかどうかをテストしている間、コンポーネントは混乱し、信頼性の低い予測が得られます。
- 参考スコア(独自算出の注目度): 6.177271244427367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning Enabled Components (LECs) are widely being used in a variety of
perception based autonomy tasks like image segmentation, object detection,
end-to-end driving, etc. These components are trained with large image datasets
with multimodal factors like weather conditions, time-of-day, traffic-density,
etc. The LECs learn from these factors during training, and while testing if
there is variation in any of these factors, the components get confused
resulting in low confidence predictions. The images with factors not seen
during training is commonly referred to as Out-of-Distribution (OOD). For safe
autonomy it is important to identify the OOD images, so that a suitable
mitigation strategy can be performed. Classical one-class classifiers like SVM
and SVDD are used to perform OOD detection. However, the multiple labels
attached to the images in these datasets, restricts the direct application of
these techniques. We address this problem using the latent space of the
$\beta$-Variational Autoencoder ($\beta$-VAE). We use the fact that compact
latent space generated by an appropriately selected $\beta$-VAE will encode the
information about these factors in a few latent variables, and that can be used
for computationally inexpensive detection. We evaluate our approach on the
nuScenes dataset, and our results shows the latent space of $\beta$-VAE is
sensitive to encode changes in the values of the generative factor.
- Abstract(参考訳): 学習可能コンポーネント(LEC)は、イメージセグメンテーション、オブジェクト検出、エンドツーエンドの駆動など、さまざまな認識に基づく自律的なタスクで広く使用されている。
これらのコンポーネントは、気象条件や日時、トラフィック密度といったマルチモーダルな要素を持つ大規模なイメージデータセットでトレーニングされる。
LECはトレーニング中にこれらの要因から学習し、これらの要因にばらつきがあるかどうかをテストする間、コンポーネントは混乱し、信頼性が低い。
トレーニング中に見えない要因のイメージは、一般的にout-of-Distribution (OOD)と呼ばれる。
安全な自律のためには、OOD画像の識別が重要であり、適切な緩和戦略が実行可能である。
SVMやSVDDのような古典的な一級分類器はOOD検出に使用される。
しかし、これらのデータセットのイメージにアタッチされた複数のラベルは、これらのテクニックの直接適用を制限する。
我々は、$\beta$-variational autoencoder ($\beta$-vae) の潜在空間を用いてこの問題に対処する。
適切に選択された$\beta$-vae によって生成されるコンパクトな潜在空間は、これらの因子に関する情報をいくつかの潜在変数にエンコードし、計算的に安価な検出に使うことができる。
我々はnuScenesデータセットに対するアプローチを評価し,この結果から生成因子の値の変化をエンコードするために$\beta$-VAEの潜伏空間が敏感であることが示唆された。
関連論文リスト
- Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - A noisy elephant in the room: Is your out-of-distribution detector robust to label noise? [49.88894124047644]
我々は、最先端のOOD検出方法20について詳しく検討する。
不正に分類されたIDサンプルとOODサンプルの分離が不十分であることを示す。
論文 参考訳(メタデータ) (2024-04-02T09:40:22Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Explaining Cross-Domain Recognition with Interpretable Deep Classifier [100.63114424262234]
解釈可能なDeep(IDC)は、ターゲットサンプルの最も近いソースサンプルを、分類器が決定を下す証拠として学習する。
我々のIDCは、精度の劣化がほとんどなく、最適なリジェクションオプションの分類を効果的に調整する、より説明可能なモデルに導かれる。
論文 参考訳(メタデータ) (2022-11-15T15:58:56Z) - A Simple Test-Time Method for Out-of-Distribution Detection [45.11199798139358]
本稿では,OOD検出のための簡易なテスト時間線形訓練法を提案する。
分布外である入力画像の確率は、ニューラルネットワークが抽出した特徴と驚くほど線形に相関していることがわかった。
本稿では,提案手法のオンライン版を提案し,実世界のアプリケーションでより実用的な性能を実現する。
論文 参考訳(メタデータ) (2022-07-17T16:02:58Z) - Transformer-based out-of-distribution detection for clinically safe
segmentation [1.649654992058168]
臨床環境では、デプロイされた画像処理システムが確実に間違った予測をしないことが不可欠である。
本研究では,画像分割に着目し,ネットワークの不確実性に対するいくつかのアプローチを評価する。
本稿では,VQ-GANを用いたフル3次元OOD検出を行い,圧縮された画像の潜時表現と変換器を用いてデータ確率を推定する手法を提案する。
論文 参考訳(メタデータ) (2022-05-21T17:55:09Z) - A Comprehensive Study of Image Classification Model Sensitivity to
Foregrounds, Backgrounds, and Visual Attributes [58.633364000258645]
このデータセットをRIVAL10と呼びます。
本研究では,前景,背景,属性の騒音劣化に対する幅広いモデルの感度を評価する。
本稿では,多種多様な最先端アーキテクチャ (ResNets, Transformers) とトレーニング手順 (CLIP, SimCLR, DeiT, Adversarial Training) について考察する。
論文 参考訳(メタデータ) (2022-01-26T06:31:28Z) - Efficient Out-of-Distribution Detection Using Latent Space of
$\beta$-VAE for Cyber-Physical Systems [5.3285526740173745]
ディープニューラルネットワークは、自律型サイバー物理システムの設計に積極的に利用されている。
これらのモデルの利点は、高次元状態空間を処理し、操作状態空間のコンパクトな代理表現を学ぶ能力である。
モデルのトレーニングに使用されるサンプル観測は、物理的環境全体の状態空間をカバーできない可能性がある。
結果として、システムはトレーニング分布に属さない条件下で運用される可能性が高い。
論文 参考訳(メタデータ) (2021-08-26T14:03:56Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - OODformer: Out-Of-Distribution Detection Transformer [15.17006322500865]
現実世界の安全クリティカルなアプリケーションでは、新しいデータポイントがOODであるかどうかを認識することが重要です。
本稿では,OODformer というファースト・オブ・ザ・キンドな OOD 検出アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-07-19T15:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。