論文の概要: Robust Uncertainty Estimation under Distribution Shift via Difference Reconstruction
- arxiv url: http://arxiv.org/abs/2601.19341v1
- Date: Tue, 27 Jan 2026 08:23:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.246977
- Title: Robust Uncertainty Estimation under Distribution Shift via Difference Reconstruction
- Title(参考訳): 差分再構成による分布変化下におけるロバスト不確かさ推定
- Authors: Xinran Xu, Li Rong Wang, Xiuyi Fan,
- Abstract要約: 深層学習モデルの不確実性を推定することは、医用画像などの高精細な応用において、信頼性の高い意思決定に不可欠である。
以前の研究では、入力サンプルと再構成されたバージョンの違いが不確実性の指標となることが確認されている。
本研究では、2つの中間層からの入力を再構成し、その出力間の差を不確かさスコアとして測定することにより、この制限を緩和する差分再構成不確実性推定法(DRUE)を提案する。
- 参考スコア(独自算出の注目度): 2.920726125254978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating uncertainty in deep learning models is critical for reliable decision-making in high-stakes applications such as medical imaging. Prior research has established that the difference between an input sample and its reconstructed version produced by an auxiliary model can serve as a useful proxy for uncertainty. However, directly comparing reconstructions with the original input is degraded by information loss and sensitivity to superficial details, which limits its effectiveness. In this work, we propose Difference Reconstruction Uncertainty Estimation (DRUE), a method that mitigates this limitation by reconstructing inputs from two intermediate layers and measuring the discrepancy between their outputs as the uncertainty score. To evaluate uncertainty estimation in practice, we follow the widely used out-of-distribution (OOD) detection paradigm, where in-distribution (ID) training data are compared against datasets with increasing domain shift. Using glaucoma detection as the ID task, we demonstrate that DRUE consistently achieves superior AUC and AUPR across multiple OOD datasets, highlighting its robustness and reliability under distribution shift. This work provides a principled and effective framework for enhancing model reliability in uncertain environments.
- Abstract(参考訳): 深層学習モデルの不確実性を推定することは、医用画像などの高精細な応用において、信頼性の高い意思決定に不可欠である。
従来の研究では、入力サンプルと補助モデルによって生成された再構成バージョンの違いが不確実性の指標となることが確認されている。
しかし、再構成と元の入力を直接比較することは、情報損失と表面的詳細に対する感度によって劣化し、その効果が制限される。
本研究では、2つの中間層からの入力を再構成し、その出力間の差を不確かさスコアとして測定することにより、この制限を緩和する差分再構成不確実性推定法(DRUE)を提案する。
実際に不確実性評価を行うためには,ドメインシフトが増大するデータセットに対して,分布内(ID)トレーニングデータを比較した場合に広く使用されるOOD(out-of-distriion)検出パラダイムを踏襲する。
IDタスクとして緑内障検出を用いると、DRUEは複数のOODデータセットにまたがる優れたAUCとAUPRを一貫して達成し、分散シフト時の堅牢性と信頼性を強調した。
この作業は、不確実な環境でモデルの信頼性を高めるための原則的かつ効果的なフレームワークを提供する。
関連論文リスト
- TrustLoRA: Low-Rank Adaptation for Failure Detection under Out-of-distribution Data [62.22804234013273]
本稿では,共変量および意味的シフトの両条件下での拒絶による分類を統一し,促進する,単純な故障検出フレームワークを提案する。
キーとなる洞察は、障害固有の信頼性知識を低ランクアダプタで分離し、統合することにより、障害検出能力を効果的かつ柔軟に向上できるということです。
論文 参考訳(メタデータ) (2025-04-20T09:20:55Z) - What If the Input is Expanded in OOD Detection? [77.37433624869857]
Out-of-distriion (OOD) 検出は未知のクラスからのOOD入力を特定することを目的としている。
In-distriion(ID)データと区別するために,様々なスコアリング関数を提案する。
入力空間に異なる共通の汚職を用いるという、新しい視点を導入する。
論文 参考訳(メタデータ) (2024-10-24T06:47:28Z) - Adaptive Uncertainty Estimation via High-Dimensional Testing on Latent
Representations [28.875819909902244]
不確実性推定は、訓練されたディープニューラルネットワークの信頼性を評価することを目的としている。
既存の不確実性推定アプローチは、低次元分布仮定に依存している。
本研究では,不確実性推定のためのデータ適応型高次元仮説テストを用いた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-25T12:22:18Z) - Towards Reliable Medical Image Segmentation by Modeling Evidential Calibrated Uncertainty [57.023423137202485]
医用画像のセグメンテーションの信頼性に関する懸念が臨床医の間で続いている。
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を活用することで、医用画像分割の確率と不確実性を明示的にモデル化する。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - Diffusion Denoising Process for Perceptron Bias in Out-of-distribution
Detection [67.49587673594276]
我々は、識別器モデルが入力の特定の特徴に対してより敏感であることを示唆する新しいパーセプトロンバイアスの仮定を導入し、過度な問題を引き起こした。
DMの拡散分解過程 (DDP) が非対称の新たな形態として機能し, 入力を高め, 過信問題を緩和するのに適していることを示す。
CIFAR10, CIFAR100, ImageNetによる実験により, 提案手法がSOTA手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T08:45:08Z) - Know Your Space: Inlier and Outlier Construction for Calibrating Medical
OOD Detectors [39.8194799829348]
我々は、よく校正されたアウト・オブ・ディストリビューション検出器(OOD)の開発に焦点をあてる。
適切なキャリブレーションデータセットのキュレーションが困難であるために、合成オーグメンテーションは不整合/不整合仕様において非常に普及している。
最適プロトコルは,様々な画素空間外値とともに潜在空間不整形を合成することである。
論文 参考訳(メタデータ) (2022-07-12T03:42:05Z) - On the Practicality of Deterministic Epistemic Uncertainty [106.06571981780591]
決定論的不確実性法(DUM)は,分布外データの検出において高い性能を達成する。
DUMが十分に校正されており、現実のアプリケーションにシームレスにスケールできるかどうかは不明だ。
論文 参考訳(メタデータ) (2021-07-01T17:59:07Z) - Know Your Limits: Uncertainty Estimation with ReLU Classifiers Fails at
Reliable OOD Detection [0.0]
本稿では, 実験結果について理論的に説明し, 合成データから考察する。
このような技術は、分類設定でOODサンプルを確実に識別できないことを証明します。
論文 参考訳(メタデータ) (2020-12-09T21:35:55Z) - Detecting Out-of-distribution Samples via Variational Auto-encoder with
Reliable Uncertainty Estimation [5.430048915427229]
変分オートエンコーダ(VAE)は、豊かな表現能力を持つ影響のある生成モデルである。
VAEモデルは、アウト・オブ・ディストリビューション(OOD)インプットに対して、イン・ディストリビューション(ID)インプットよりも高い確率を割り当てる弱点がある。
本研究では,INCPVAEと呼ばれるVAEのエンコーダに統合可能な改良型ノイズコントラッシブ先行(INCP)を提案する。
論文 参考訳(メタデータ) (2020-07-16T06:02:18Z) - Uncertainty-Based Out-of-Distribution Classification in Deep
Reinforcement Learning [17.10036674236381]
アウト・オブ・ディストリビューションデータの誤予測は、機械学習システムにおける安全性の危機的状況を引き起こす可能性がある。
我々は不確実性に基づくOOD分類のためのフレームワークUBOODを提案する。
UBOODはアンサンブルに基づく推定器と組み合わせることで,信頼性の高い分類結果が得られることを示す。
論文 参考訳(メタデータ) (2019-12-31T09:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。