論文の概要: OOD Augmentation May Be at Odds with Open-Set Recognition
- arxiv url: http://arxiv.org/abs/2206.04242v1
- Date: Thu, 9 Jun 2022 03:01:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-11 02:31:40.378044
- Title: OOD Augmentation May Be at Odds with Open-Set Recognition
- Title(参考訳): OOD増産はオープンセット認識で不利になるかもしれない
- Authors: Mohammad Azizmalayeri, Mohammad Hossein Rohban
- Abstract要約: Open-Set Recognition (OSR) は、配布外サンプルの分類と検出の両方を達成することを目的としている。
視覚変換器(ViT)に適用されたOSRの最も単純なベースラインであるMSPは、最近の多くの手法よりも驚くほど優れていることを示す。
この結果は, CIFAR-10データセットでは最先端であり, SVHNやMNISTの手法よりも優れている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite advances in image classification methods, detecting the samples not
belonging to the training classes is still a challenging problem. There has
been a burst of interest in this subject recently, which is called Open-Set
Recognition (OSR). In OSR, the goal is to achieve both the classification and
detecting out-of-distribution (OOD) samples. Several ideas have been proposed
to push the empirical result further through complicated techniques. We believe
that such complication is indeed not necessary. To this end, we have shown that
Maximum Softmax Probability (MSP), as the simplest baseline for OSR, applied on
Vision Transformers (ViTs) as the base classifier that is trained with non-OOD
augmentations can surprisingly outperform many recent methods. Non-OOD
augmentations are the ones that do not alter the data distribution by much. Our
results outperform state-of-the-art in CIFAR-10 datasets, and is also better
than most of the current methods in SVHN and MNIST. We show that training
augmentation has a significant effect on the performance of ViTs in the OSR
tasks, and while they should produce significant diversity in the augmented
samples, the generated sample OOD-ness must remain limited.
- Abstract(参考訳): 画像分類手法の進歩にもかかわらず、トレーニングクラスに属さないサンプルの検出は依然として難しい課題である。
最近、このテーマに多くの関心が寄せられ、OSR(Open-Set Recognition)と呼ばれる。
osrでは、od(out-of-distribution)サンプルの分類と検出を両立することが目標である。
複雑な手法によって経験結果をさらに推し進めるために、いくつかのアイデアが提案されている。
そのような複雑さは必然的ではないと私たちは信じている。
そこで本研究では, 最大ソフトマックス確率 (msp) をosrのベースラインとして, 視覚トランスフォーマー (vits) をベースクラス化器として適用することで, 近年の手法を驚くほど上回っていることを示す。
非OOD拡張は、データ分散をあまり変更しないものなのです。
この結果は, CIFAR-10データセットでは最先端であり, SVHNやMNISTの手法よりも優れている。
トレーニング強化が OSR タスクにおける ViTs のパフォーマンスに重大な影響を与えていることを示し,それらが追加サンプルに顕著な多様性をもたらすべきであるが,生成した OOD-ness は限定的でなければならない。
関連論文リスト
- Adaptive Label Smoothing for Out-of-Distribution Detection [1.5999407512883508]
適応ラベル平滑化(ALS)と呼ばれる新しい正規化手法を提案する。
ALSは非真のクラスを同じ確率にプッシュするが、最大確率は固定でも制限でもない。
私たちのコードは一般に公開されます。
論文 参考訳(メタデータ) (2024-10-08T15:35:11Z) - Margin-bounded Confidence Scores for Out-of-Distribution Detection [2.373572816573706]
本稿では,非自明なOOD検出問題に対処するため,Margin bounded Confidence Scores (MaCS) と呼ばれる新しい手法を提案する。
MaCS は ID と OOD のスコアの差を拡大し、決定境界をよりコンパクトにする。
画像分類タスクのための様々なベンチマークデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-09-22T05:40:25Z) - HyperMix: Out-of-Distribution Detection and Classification in Few-Shot
Settings [30.244612164612878]
最近の最先端のOOD法は、数ショット設定で単純なベースラインを上回りません。
生成したパラメータに対してMixupを用いたHyperMixと呼ばれるハイパーネットワークフレームワークを提案する。
我々はCIFAR-FSとMiniImageNetで実験を行い、数ショットで他のOOD法よりも優れています。
論文 参考訳(メタデータ) (2023-12-22T21:56:48Z) - Diversified Outlier Exposure for Out-of-Distribution Detection via
Informative Extrapolation [110.34982764201689]
Out-of-Distribution(OOD)検出は、現実のアプリケーションに信頼性の高い機械学習モデルをデプロイするために重要である。
近年, 外部曝露によるOOD検出に有意な結果が得られた。
本稿では,補助外乱量に基づく情報外挿による効果的なOOD検出のための新しい枠組み,すなわちDivOE(Diversified Outlier Exposure)を提案する。
論文 参考訳(メタデータ) (2023-10-21T07:16:09Z) - The Devil is in the Wrongly-classified Samples: Towards Unified Open-set
Recognition [61.28722817272917]
Open-set Recognition (OSR) は、トレーニングプロセス中にクラスが見えないテストサンプルを特定することを目的としている。
近年,Unified Open-set Recognition (UOSR) が提案されている。
論文 参考訳(メタデータ) (2023-02-08T11:34:04Z) - Improving Out-of-Distribution Generalization by Adversarial Training
with Structured Priors [17.936426699670864]
サンプルワイド・アドバイザリ・トレーニング (AT) では, アウト・オブ・ディストリビューション (OOD) の一般化が限定的に改善されていることを示す。
OOD-robustモデルのトレーニングのために,低ランク構造をもつ2つのAT変種を提案する。
提案手法は,経験的リスク最小化(ERM)とサンプルワイドATより優れている。
論文 参考訳(メタデータ) (2022-10-13T07:37:42Z) - ReSmooth: Detecting and Utilizing OOD Samples when Training with Data
Augmentation [57.38418881020046]
最近のDA技術は、常に強化トレーニングサンプルの多様性の必要性を満たす。
多様性の高い増分戦略は、通常、アウト・オブ・ディストリビューション(OOD)の増分サンプルを導入する。
ReSmoothは、まず、拡張サンプル中のOODサンプルを検知し、それらを活用するフレームワークである。
論文 参考訳(メタデータ) (2022-05-25T09:29:27Z) - Open-Set Recognition: A Good Closed-Set Classifier is All You Need [146.6814176602689]
分類器が「ゼロ・オブ・ア・ア・ア・ベ」決定を行う能力は、閉集合クラスにおける精度と高い相関関係があることが示される。
この相関を利用して、閉セット精度を向上させることにより、クロスエントロピーOSR'ベースライン'の性能を向上させる。
また、セマンティックノベルティを検出するタスクをより尊重する新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2021-10-12T17:58:59Z) - On the Practicality of Deterministic Epistemic Uncertainty [106.06571981780591]
決定論的不確実性法(DUM)は,分布外データの検出において高い性能を達成する。
DUMが十分に校正されており、現実のアプリケーションにシームレスにスケールできるかどうかは不明だ。
論文 参考訳(メタデータ) (2021-07-01T17:59:07Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。