論文の概要: Out-of-Distribution Detection from Small Training Sets using Bayesian Neural Network Classifiers
- arxiv url: http://arxiv.org/abs/2510.06025v1
- Date: Tue, 07 Oct 2025 15:23:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.310333
- Title: Out-of-Distribution Detection from Small Training Sets using Bayesian Neural Network Classifiers
- Title(参考訳): ベイジアンニューラルネットワーク分類器を用いた小規模学習セットの分布外検出
- Authors: Kevin Raina, Tanya Schmah,
- Abstract要約: 我々は,期待ロジットベクトルに基づくベイズ的ポストホックOODスコアの新たなファミリーを導入し,ベイズ的ポストホックOODスコアを5つ,決定論的ポストホックOODスコアを4つ比較した。
MNIST と CIFAR-10 In-Distributions の実験では、5000 以上のトレーニングサンプルを用いて、ベイズ法が対応する決定論的手法より優れていることを示した。
- 参考スコア(独自算出の注目度): 4.297070083645049
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Out-of-Distribution (OOD) detection is critical to AI reliability and safety, yet in many practical settings, only a limited amount of training data is available. Bayesian Neural Networks (BNNs) are a promising class of model on which to base OOD detection, because they explicitly represent epistemic (i.e. model) uncertainty. In the small training data regime, BNNs are especially valuable because they can incorporate prior model information. We introduce a new family of Bayesian posthoc OOD scores based on expected logit vectors, and compare 5 Bayesian and 4 deterministic posthoc OOD scores. Experiments on MNIST and CIFAR-10 In-Distributions, with 5000 training samples or less, show that the Bayesian methods outperform corresponding deterministic methods.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出はAIの信頼性と安全性に不可欠だが、多くの実践的な設定では、限られたトレーニングデータしか利用できない。
ベイズニューラルネットワーク(ベイズニューラルニューラルネットワーク、英: Bayesian Neural Networks、BNN)は、OOD検出を基盤とする有望なモデルである。
小規模なトレーニングデータ体制では、BNNが特に価値があるのは、事前のモデル情報を組み込むことができるためである。
我々は,期待ロジットベクトルに基づくベイズ的ポストホックOODスコアの新たなファミリーを導入し,ベイズ的ポストホックOODスコアを5つ,決定論的ポストホックOODスコアを4つ比較した。
MNIST と CIFAR-10 In-Distributions の実験では、5000 以上のトレーニングサンプルを用いて、ベイズ法が対応する決定論的手法より優れていることを示した。
関連論文リスト
- Towards More Trustworthy Deep Code Models by Enabling Out-of-Distribution Detection [12.141246816152288]
コードに対する非教師付きOOD検出と弱教師付きOOD検出の2種類のSE固有OOD検出モデルを開発した。
提案手法は, 4つのシナリオからOODサンプルを同時に検出する上で, ベースラインを著しく上回り, コード理解タスクに肯定的な影響を与えている。
論文 参考訳(メタデータ) (2025-02-26T06:59:53Z) - LINe: Out-of-Distribution Detection by Leveraging Important Neurons [15.797257361788812]
本稿では,分布内データとOODデータ間のモデル出力の差を解析するための新しい側面を紹介する。
本稿では,分布検出のポストホックアウトのための新しい手法であるLINe( Leveraging Important Neurons)を提案する。
論文 参考訳(メタデータ) (2023-03-24T13:49:05Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Out-of-Distribution Detection with Hilbert-Schmidt Independence
Optimization [114.43504951058796]
異常検出タスクはAIの安全性において重要な役割を担っている。
ディープニューラルネットワーク分類器は通常、アウト・オブ・ディストリビューション(OOD)の入力を、信頼性の高いイン・ディストリビューション・クラスに誤って分類する傾向がある。
我々は,OOD検出タスクにおいて実用的かつ理論的に有効な代替確率論的パラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-26T15:59:55Z) - WOOD: Wasserstein-based Out-of-Distribution Detection [6.163329453024915]
ディープ・ニューラル・ネットワークに基づく分類器のトレーニングデータは、通常同じ分布からサンプリングされる。
トレーニングサンプルから遠く離れた分布からテストサンプルの一部を引き出すと、トレーニングされたニューラルネットワークはこれらのOODサンプルに対して高い信頼性の予測を行う傾向にある。
本稿では,これらの課題を克服するため,Wasserstein を用いたアウト・オブ・ディストリビューション検出(WOOD)手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:35:15Z) - Being a Bit Frequentist Improves Bayesian Neural Networks [76.73339435080446]
OODを訓練したBNNは、近年の頻繁なベースラインに劣らず、競争力があることを示す。
この研究はベイジアンおよび頻繁なUQにおける将来の研究の強力なベースラインを提供する。
論文 参考訳(メタデータ) (2021-06-18T11:22:42Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Statistical Testing for Efficient Out of Distribution Detection in Deep
Neural Networks [26.0303701309125]
本稿では,Deep Neural Networks の Out Of Distribution (OOD) 検出問題を統計的仮説テスト問題として考察する。
このフレームワークに基づいて、低階統計に基づいた新しいOOD手順を提案します。
本手法は,ネットワークパラメータの再トレーニングを行わずに,oodベンチマークの精度が向上した。
論文 参考訳(メタデータ) (2021-02-25T16:14:47Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Probing Predictions on OOD Images via Nearest Categories [97.055916832257]
ニューラルネットワークが未確認のクラスや破損したイメージから画像を分類する際のアウト・オブ・ディストリビューション(OOD)予測挙動について検討する。
我々は、トレーニングセットにおいて、最も近い隣人と同じラベルで分類されたOOD入力の分数を計算するため、新しい測度、最も近いカテゴリ一般化(NCG)を導入する。
我々は、OODデータがロバストネス半径よりも遥かに遠くにある場合でも、ロバストネットワークは自然訓練よりも一貫してNCG精度が高いことを発見した。
論文 参考訳(メタデータ) (2020-11-17T07:42:27Z) - An Algorithm for Out-Of-Distribution Attack to Neural Network Encoder [1.7305469511995404]
Out-Of-Distribution (OOD) サンプルはトレーニングセットの分布に従わないため、OOD サンプルの予測されたクラスラベルは意味のないものとなる。
本手法は理論的保証がなく,OODアタックアルゴリズムにより事実上破壊可能であることを示す。
また、Glow chance-based OOD detectionも破壊可能であることも示している。
論文 参考訳(メタデータ) (2020-09-17T02:10:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。