論文の概要: NADS: Neural Architecture Distribution Search for Uncertainty Awareness
- arxiv url: http://arxiv.org/abs/2006.06646v1
- Date: Thu, 11 Jun 2020 17:39:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 10:10:27.955085
- Title: NADS: Neural Architecture Distribution Search for Uncertainty Awareness
- Title(参考訳): NADS:不確実性認識のためのニューラルネットワーク分布探索
- Authors: Randy Ardywibowo, Shahin Boluki, Xinyu Gong, Zhangyang Wang, Xiaoning
Qian
- Abstract要約: 機械学習(ML)システムは、トレーニングデータとは異なるディストリビューションから来るテストデータを扱う場合、しばしばOoD(Out-of-Distribution)エラーに遭遇する。
既存のOoD検出アプローチはエラーを起こしやすく、時にはOoDサンプルに高い確率を割り当てることもある。
本稿では,すべての不確実性を考慮したアーキテクチャの共通構築ブロックを特定するために,ニューラルアーキテクチャ分布探索(NADS)を提案する。
- 参考スコア(独自算出の注目度): 79.18710225716791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) systems often encounter Out-of-Distribution (OoD)
errors when dealing with testing data coming from a distribution different from
training data. It becomes important for ML systems in critical applications to
accurately quantify its predictive uncertainty and screen out these anomalous
inputs. However, existing OoD detection approaches are prone to errors and even
sometimes assign higher likelihoods to OoD samples. Unlike standard learning
tasks, there is currently no well established guiding principle for designing
OoD detection architectures that can accurately quantify uncertainty. To
address these problems, we first seek to identify guiding principles for
designing uncertainty-aware architectures, by proposing Neural Architecture
Distribution Search (NADS). NADS searches for a distribution of architectures
that perform well on a given task, allowing us to identify common building
blocks among all uncertainty-aware architectures. With this formulation, we are
able to optimize a stochastic OoD detection objective and construct an ensemble
of models to perform OoD detection. We perform multiple OoD detection
experiments and observe that our NADS performs favorably, with up to 57%
improvement in accuracy compared to state-of-the-art methods among 15 different
testing configurations.
- Abstract(参考訳): 機械学習(ML)システムは、トレーニングデータとは異なるディストリビューションから来るテストデータを扱う場合、しばしばOoD(Out-of-Distribution)エラーに遭遇する。
MLシステムにとって、予測の不確実性を正確に定量化し、これらの異常な入力を検査することが重要となる。
しかし、既存のOoD検出アプローチはエラーを起こしやすく、時にはOoDサンプルに高い確率を割り当てることもある。
標準的な学習タスクとは異なり、不確実性を正確に定量化できるood検出アーキテクチャを設計するための確立された指針は存在しない。
これらの問題に対処するため,我々はまず,ニューラル・アーキテクチャ分布探索(nads)を提案することにより,不確実性を認識するアーキテクチャを設計するための指針を特定する。
NADSは、与えられたタスクでよく機能するアーキテクチャの分布を探索し、不確実性を認識したすべてのアーキテクチャの中で共通のビルディングブロックを識別する。
この定式化により,確率的ood検出目標を最適化し,ood検出を行うモデルのアンサンブルを構築することができる。
我々は複数のOoD検出実験を行い、15の異なるテスト構成の最先端手法と比較して最大57%の精度でNADSが良好に動作することを観察した。
関連論文リスト
- Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Quantifying uncertainty for deep learning based forecasting and
flow-reconstruction using neural architecture search ensembles [0.8258451067861933]
本稿では,ディープニューラルネットワーク(DNN)の自動検出手法を提案するとともに,アンサンブルに基づく不確実性定量化にも有効であることを示す。
提案手法は,タスクの高パフォーマンスニューラルネットワークアンサンブルを検出するだけでなく,不確実性をシームレスに定量化する。
本研究では, 歴史的データからの予測と, 海面温度のスパースセンサからのフロー再構成という2つの課題に対して, この枠組みの有効性を実証する。
論文 参考訳(メタデータ) (2023-02-20T03:57:06Z) - Diffusion Denoising Process for Perceptron Bias in Out-of-distribution
Detection [67.49587673594276]
我々は、識別器モデルが入力の特定の特徴に対してより敏感であることを示唆する新しいパーセプトロンバイアスの仮定を導入し、過度な問題を引き起こした。
DMの拡散分解過程 (DDP) が非対称の新たな形態として機能し, 入力を高め, 過信問題を緩和するのに適していることを示す。
CIFAR10, CIFAR100, ImageNetによる実験により, 提案手法がSOTA手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T08:45:08Z) - Validation Diagnostics for SBI algorithms based on Normalizing Flows [55.41644538483948]
本研究は,NFに基づく多次元条件(後)密度推定器の検証診断を容易にすることを提案する。
また、局所的な一貫性の結果に基づいた理論的保証も提供する。
この作業は、より良い特定モデルの設計を支援したり、新しいSBIアルゴリズムの開発を促進するのに役立つだろう。
論文 参考訳(メタデータ) (2022-11-17T15:48:06Z) - A Review of Uncertainty Calibration in Pretrained Object Detectors [5.440028715314566]
多クラス設定における事前訓練対象検出アーキテクチャの不確実性校正特性について検討する。
公平でバイアスのない,繰り返し可能な評価を実現するためのフレームワークを提案する。
検出器のキャリブレーションが低い理由について、新しい知見を提供する。
論文 参考訳(メタデータ) (2022-10-06T14:06:36Z) - iDECODe: In-distribution Equivariance for Conformal Out-of-distribution
Detection [24.518698391381204]
ディープニューラルネットワーク(DNN)のような機械学習手法は、しばしば信頼性の高い誤った予測を生成する。
そこで我々は,共形OOD検出に分配同値を用いたiDECODeを提案する。
画像と音声のデータセットを用いた実験により,iDECODeの有効性を実証し,その結果を得た。
論文 参考訳(メタデータ) (2022-01-07T05:21:40Z) - Detecting OODs as datapoints with High Uncertainty [12.040347694782007]
ディープニューラルネットワーク(DNN)は、オフ・オブ・ディストリビューション・インプット(OOD)に非常に高い信頼を持つ誤った予測を生成することが知られている。
この制限は、自律運転、航空交通管理、医療診断などの高信頼システムにおけるDNNの採用における重要な課題の1つである。
モデルの予測が信頼できない入力を検出するために、いくつかの技術が開発されている。
我々は,これらの手法の検知能力の違いを実証し,不確実性の高いデータポイントとしてOODを検出するためのアンサンブルアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-13T20:07:42Z) - Sketching Curvature for Efficient Out-of-Distribution Detection for Deep
Neural Networks [32.629801680158685]
Sketching Curvature of OoD Detection (SCOD)は、訓練されたディープニューラルネットワークにタスク関連不確実性推定を装備するためのアーキテクチャに依存しないフレームワークである。
SCODは,既存のベースラインと比較して計算負担の少ないOoD検出性能の同等あるいは優れたOoD検出性能を達成できることを実証する。
論文 参考訳(メタデータ) (2021-02-24T21:34:40Z) - SUOD: Accelerating Large-Scale Unsupervised Heterogeneous Outlier
Detection [63.253850875265115]
外乱検出(OD)は、一般的なサンプルから異常物体を識別するための機械学習(ML)タスクである。
そこで我々は,SUODと呼ばれるモジュール型加速度システムを提案する。
論文 参考訳(メタデータ) (2020-03-11T00:22:50Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。