論文の概要: A Bayesian Approach to OOD Robustness in Image Classification
- arxiv url: http://arxiv.org/abs/2403.07277v1
- Date: Tue, 12 Mar 2024 03:15:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 23:03:12.726574
- Title: A Bayesian Approach to OOD Robustness in Image Classification
- Title(参考訳): 画像分類におけるOODロバストネスに対するベイズ的アプローチ
- Authors: Prakhar Kaushik and Adam Kortylewski and Alan Yuille
- Abstract要約: 対象分類のためのOODロバストネスに対する新しいベイズ的アプローチを導入する。
我々は、CompNetsがvon Mises-Fisher(vMF)カーネルで表される特徴ベクトル上に定義された生成ヘッドを含んでいるという事実を活用する。
これにより、ソースとターゲットドメインの中間に位置するvMFカーネルの遷移辞書を学習することができる。
- 参考スコア(独自算出の注目度): 20.104489420303306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An important and unsolved problem in computer vision is to ensure that the
algorithms are robust to changes in image domains. We address this problem in
the scenario where we have access to images from the target domains but no
annotations. Motivated by the challenges of the OOD-CV benchmark where we
encounter real world Out-of-Domain (OOD) nuisances and occlusion, we introduce
a novel Bayesian approach to OOD robustness for object classification. Our work
extends Compositional Neural Networks (CompNets), which have been shown to be
robust to occlusion but degrade badly when tested on OOD data. We exploit the
fact that CompNets contain a generative head defined over feature vectors
represented by von Mises-Fisher (vMF) kernels, which correspond roughly to
object parts, and can be learned without supervision. We obverse that some vMF
kernels are similar between different domains, while others are not. This
enables us to learn a transitional dictionary of vMF kernels that are
intermediate between the source and target domains and train the generative
model on this dictionary using the annotations on the source domain, followed
by iterative refinement. This approach, termed Unsupervised Generative
Transition (UGT), performs very well in OOD scenarios even when occlusion is
present. UGT is evaluated on different OOD benchmarks including the OOD-CV
dataset, several popular datasets (e.g., ImageNet-C [9]), artificial image
corruptions (including adding occluders), and synthetic-to-real domain
transfer, and does well in all scenarios outperforming SOTA alternatives (e.g.
up to 10% top-1 accuracy on Occluded OOD-CV dataset).
- Abstract(参考訳): コンピュータビジョンにおける重要かつ未解決の問題は、アルゴリズムが画像領域の変化に対して堅牢であることを保証することである。
この問題に対処するシナリオでは、ターゲットドメインからの画像にアクセスできますが、アノテーションはありません。
実世界におけるOOD-CVベンチマーク(OOD-CVベンチマーク)の課題に触発され,OOD分類に対する新しいベイズ的アプローチを導入する。
我々の研究は、OODデータでテストすると、排他的に頑健だが劣化がひどくなるコンポジションニューラルネットワーク(Compineal Neural Networks, CompNets)を拡張している。
我々は,von mises-fisher (vmf) カーネルで表現される特徴ベクトル上で定義された生成型ヘッドを含むコンプネットを活用し,対象部分と大雑把に対応し,監視なしで学習できる。
いくつかのvMFカーネルは異なるドメイン間で似ているが、他のカーネルはそうではない。
これにより、ソースドメインとターゲットドメインの間にあるvmfカーネルの遷移辞書を学習し、ソースドメインのアノテーションを使用してこの辞書で生成モデルをトレーニングし、さらに反復的なリファインメントを行うことができます。
このアプローチはUnsupervised Generative Transition (UGT)と呼ばれ、OODシナリオでは閉塞が存在する場合でも非常にうまく機能する。
UGTは、OOD-CVデータセット、いくつかの一般的なデータセット(例えば、ImageNet-C [9])、人工画像の破損(Occluderの追加を含む)、合成から現実へのドメイン転送などを含む様々なOODベンチマークで評価されており、すべてのシナリオにおいてSOTA代替品(例えば、Occluded OOD-CVデータセットの10%のトップ-1精度)より優れている。
関連論文リスト
- What If the Input is Expanded in OOD Detection? [77.37433624869857]
Out-of-distriion (OOD) 検出は未知のクラスからのOOD入力を特定することを目的としている。
In-distriion(ID)データと区別するために,様々なスコアリング関数を提案する。
入力空間に異なる共通の汚職を用いるという、新しい視点を導入する。
論文 参考訳(メタデータ) (2024-10-24T06:47:28Z) - ATTA: Anomaly-aware Test-Time Adaptation for Out-of-Distribution
Detection in Segmentation [22.084967085509387]
ドメインシフトとセマンティックシフトを協調的に扱うための二重レベルOOD検出フレームワークを提案する。
第1のレベルは、グローバルな低レベル機能を活用することで、画像内にドメインシフトが存在するかどうかを区別する。
第2のレベルは、高次特徴写像を高密度に利用することにより、セマンティックシフトを伴う画素を識別する。
論文 参考訳(メタデータ) (2023-09-12T06:49:56Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Building One-class Detector for Anything: Open-vocabulary Zero-shot OOD
Detection Using Text-image Models [23.302018871162186]
ゼロショット方式でテキスト画像事前学習モデルを利用する新しい1クラスオープンセットOOD検出器を提案する。
提案手法は,ドメイン内でないものを検出し,多様なOODを検出する柔軟性を提供する。
本手法は,すべてのベンチマークにおいて,従来の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-26T18:58:56Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Semantically Coherent Out-of-Distribution Detection [26.224146828317277]
現在のアウト・オブ・ディストリビューション(OOD)検出ベンチマークは、ひとつのデータセットをイン・ディストリビューション(ID)として定義し、他のすべてのデータセットをOODとして定義することで、一般的に構築されている。
ベンチマークを再設計し、セマンティック・コヒーレント・アウト・オブ・ディストリビューション検出(SC-OOD)を提案する。
本手法は,SC-OODベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-08-26T17:53:32Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - OODformer: Out-Of-Distribution Detection Transformer [15.17006322500865]
現実世界の安全クリティカルなアプリケーションでは、新しいデータポイントがOODであるかどうかを認識することが重要です。
本稿では,OODformer というファースト・オブ・ザ・キンドな OOD 検出アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-07-19T15:46:38Z) - Probing Predictions on OOD Images via Nearest Categories [97.055916832257]
ニューラルネットワークが未確認のクラスや破損したイメージから画像を分類する際のアウト・オブ・ディストリビューション(OOD)予測挙動について検討する。
我々は、トレーニングセットにおいて、最も近い隣人と同じラベルで分類されたOOD入力の分数を計算するため、新しい測度、最も近いカテゴリ一般化(NCG)を導入する。
我々は、OODデータがロバストネス半径よりも遥かに遠くにある場合でも、ロバストネットワークは自然訓練よりも一貫してNCG精度が高いことを発見した。
論文 参考訳(メタデータ) (2020-11-17T07:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。