論文の概要: Autoencoder Attractors for Uncertainty Estimation
- arxiv url: http://arxiv.org/abs/2204.00382v1
- Date: Fri, 1 Apr 2022 12:10:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 13:53:02.293594
- Title: Autoencoder Attractors for Uncertainty Estimation
- Title(参考訳): 不確実性推定のためのオートエンコーダアトラクタ
- Authors: Steve Dias Da Cruz, Bertram Taetz, Thomas Stifter, Didier Stricker
- Abstract要約: 本稿では,オートエンコーダモデルに基づく不確実性推定手法を提案する。
提案手法は,車室内における占有者分類の産業的応用だけでなく,いくつかのデータセットの組み合わせについても検討した。
- 参考スコア(独自算出の注目度): 13.618797548020462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The reliability assessment of a machine learning model's prediction is an
important quantity for the deployment in safety critical applications. Not only
can it be used to detect novel sceneries, either as out-of-distribution or
anomaly sample, but it also helps to determine deficiencies in the training
data distribution. A lot of promising research directions have either proposed
traditional methods like Gaussian processes or extended deep learning based
approaches, for example, by interpreting them from a Bayesian point of view. In
this work we propose a novel approach for uncertainty estimation based on
autoencoder models: The recursive application of a previously trained
autoencoder model can be interpreted as a dynamical system storing training
examples as attractors. While input images close to known samples will converge
to the same or similar attractor, input samples containing unknown features are
unstable and converge to different training samples by potentially removing or
changing characteristic features. The use of dropout during training and
inference leads to a family of similar dynamical systems, each one being robust
on samples close to the training distribution but unstable on new features.
Either the model reliably removes these features or the resulting instability
can be exploited to detect problematic input samples. We evaluate our approach
on several dataset combinations as well as on an industrial application for
occupant classification in the vehicle interior for which we additionally
release a new synthetic dataset.
- Abstract(参考訳): 機械学習モデルの予測の信頼性評価は、安全クリティカルなアプリケーションのデプロイにおいて重要な量である。
アウトオブディストリビューション(out-of-distribution)や異常サンプル(anomaly sample)といった、新たな景色の検出に使用できるだけでなく、トレーニングデータ分布の欠陥を判断する上でも有効だ。
有望な研究の方向性の多くは、ガウス的プロセスのような伝統的な方法や、ベイズ的視点から解釈することでディープラーニングベースのアプローチを提案している。
本稿では,オートエンコーダモデルに基づく不確実性推定のための新しい手法を提案する。 事前訓練されたオートエンコーダモデルの再帰的適用は,トレーニング例をアトラクタとして格納する動的システムとして解釈できる。
既知のサンプルに近い入力画像は同一または類似のアトラクタに収束するが、未知の特徴を含む入力サンプルは不安定であり、特徴を除去または変更することで異なるトレーニングサンプルに収束する。
トレーニングと推論におけるドロップアウトの使用は、トレーニング分布に近いサンプルでは堅牢だが、新機能では不安定である、同様の力学系のファミリにつながる。
モデルがこれらの特徴を確実に除去するか、結果の不安定性を利用して問題のある入力サンプルを検出することができる。
我々は、いくつかのデータセットの組み合わせに対するアプローチと、新しい合成データセットを新たにリリースした車内における占有者分類の産業的応用について評価した。
関連論文リスト
- Robust Outlier Rejection for 3D Registration with Variational Bayes [70.98659381852787]
我々は、ロバストアライメントのための新しい変分非局所ネットワークベース外乱除去フレームワークを開発した。
そこで本稿では, 投票に基づく不整合探索手法を提案し, 変換推定のための高品質な仮説的不整合をクラスタリングする。
論文 参考訳(メタデータ) (2023-04-04T03:48:56Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Monitoring Model Deterioration with Explainable Uncertainty Estimation
via Non-parametric Bootstrap [0.0]
一度デプロイされた機械学習モデルを監視することは難しい。
ラベル付きデータが到達範囲を超えている場合、実際のシナリオでモデルをいつ再トレーニングするかを判断するのはさらに難しい。
本研究では,非パラメトリックブートストラップ型不確実性推定とSHAP値を用いて説明可能な不確実性推定を行う。
論文 参考訳(メタデータ) (2022-01-27T17:23:04Z) - Dense Out-of-Distribution Detection by Robust Learning on Synthetic
Negative Data [1.7474352892977458]
道路走行シーンとリモートセンシング画像における分布外異常の検出方法を示す。
我々は,カバレッジ指向学習の目的と異なる解像度でサンプルを生成する能力により,共同で訓練された正規化フローを活用する。
結果として得られたモデルは、道路走行シーンとリモートセンシング画像におけるアウト・オブ・ディストリビューション検出のためのベンチマークに、新たな技術状況を設定した。
論文 参考訳(メタデータ) (2021-12-23T20:35:10Z) - Robust Out-of-Distribution Detection on Deep Probabilistic Generative
Models [0.06372261626436676]
アウト・オブ・ディストリビューション(OOD)検出は機械学習システムにおいて重要な課題である。
深い確率的生成モデルは、データサンプルの可能性を推定することによって、OODの検出を容易にする。
本稿では,外周露光を伴わない新しい検出指標を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:36:10Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Open Set Recognition with Conditional Probabilistic Generative Models [51.40872765917125]
オープンセット認識のための条件付き確率生成モデル(CPGM)を提案する。
CPGMは未知のサンプルを検出できるが、異なる潜在特徴を条件付きガウス分布に近似させることで、既知のクラスを分類できる。
複数のベンチマークデータセットの実験結果から,提案手法がベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2020-08-12T06:23:49Z) - Uncertainty-Aware Deep Classifiers using Generative Models [7.486679152591502]
ディープニューラルネットワークは、しばしば、彼らが知らないことについて無知であり、インフォームド予測を行うときに過信する。
最近のアプローチでは、クラス境界に近いデータサンプルやトレーニング分布の外側から、モデルに高い不確実性を出力するようにトレーニングすることで、不確実性を直接定量化している。
本研究では,アレータ性およびてんかん性不確実性の両方を表現し,決定境界と分布外領域を識別できる新しいニューラルネットワークモデルを構築した。
論文 参考訳(メタデータ) (2020-06-07T15:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。