論文の概要: Informed Mixing -- Improving Open Set Recognition via Attribution-based Augmentation
- arxiv url: http://arxiv.org/abs/2505.12803v1
- Date: Mon, 19 May 2025 07:32:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.466417
- Title: Informed Mixing -- Improving Open Set Recognition via Attribution-based Augmentation
- Title(参考訳): Informed Mixing -- 属性ベースの拡張によるオープンセット認識の改善
- Authors: Jiawen Xu, Odej Kao, Margret Keuper,
- Abstract要約: モデル推論中に新しいクラスを検出する問題に対処するために,オープンセット認識(OSR)が考案された。
学習中のモデルの勾配に基づく属性マップを動的に活用し,学習済みの概念を隠蔽するデータ拡張手法GradMixを提案する。
オープンセット認識,クローズドセット分類,アウト・オブ・ディストリビューション検出の実験により,我々の手法が最先端技術を上回ることがよく明らかになった。
- 参考スコア(独自算出の注目度): 17.110010140066134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open set recognition (OSR) is devised to address the problem of detecting novel classes during model inference. Even in recent vision models, this remains an open issue which is receiving increasing attention. Thereby, a crucial challenge is to learn features that are relevant for unseen categories from given data, for which these features might not be discriminative. To facilitate this process and "optimize to learn" more diverse features, we propose GradMix, a data augmentation method that dynamically leverages gradient-based attribution maps of the model during training to mask out already learned concepts. Thus GradMix encourages the model to learn a more complete set of representative features from the same data source. Extensive experiments on open set recognition, close set classification, and out-of-distribution detection reveal that our method can often outperform the state-of-the-art. GradMix can further increase model robustness to corruptions as well as downstream classification performance for self-supervised learning, indicating its benefit for model generalization.
- Abstract(参考訳): モデル推論中に新しいクラスを検出する問題に対処するために,オープンセット認識(OSR)が考案された。
最近のビジョンモデルでも、これはオープンな問題であり、注目を集めている。
したがって、重要な課題は、与えられたデータから目に見えないカテゴリに関連する機能を学ぶことだ。
このプロセスを容易にし、より多様な特徴を"学習する"ために、トレーニング中にモデルの勾配に基づく属性マップを動的に活用し、既に学んだ概念を隠蔽するデータ拡張法であるGradMixを提案する。
したがって、GradMixはモデルに対して、同じデータソースからより完全な代表機能のセットを学ぶように促す。
オープンセット認識,クローズドセット分類,アウト・オブ・ディストリビューション検出に関する大規模な実験により,我々の手法が最先端技術を上回ることがよく明らかになった。
GradMixは、腐敗に対するモデルロバスト性をさらに向上させ、自己教師付き学習のための下流分類性能を向上させ、モデル一般化の利点を示す。
関連論文リスト
- SphOR: A Representation Learning Perspective on Open-set Recognition for Identifying Unknown Classes in Deep Learning Models [1.2172320168050468]
我々は,特徴空間をフォン・ミセス・フィッシャー分布の混合としてモデル化する表現学習手法であるSphORを紹介する。
このアプローチは、トレーニング中に意味的に曖昧なサンプルを使用することを可能にし、未知のクラスからのサンプルの検出を改善する。
論文 参考訳(メタデータ) (2025-03-11T05:06:11Z) - Learning from Neighbors: Category Extrapolation for Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Enhancing Fine-Grained Visual Recognition in the Low-Data Regime Through Feature Magnitude Regularization [23.78498670529746]
抽出した特徴量の均等分布を保証するために正規化手法を導入する。
その明らかな単純さにもかかわらず、我々の手法は様々な細粒度視覚認識データセットに対して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-03T07:32:46Z) - Boosting Continual Learning of Vision-Language Models via Mixture-of-Experts Adapters [65.15700861265432]
本稿では,視覚言語モデルを用いた漸進的学習における長期的忘れを緩和するパラメータ効率の連続学習フレームワークを提案する。
提案手法では,Mixture-of-Experts (MoE)アダプタの統合により,事前学習したCLIPモデルの動的拡張を行う。
視覚言語モデルのゼロショット認識能力を維持するために,分布判別オートセレクタを提案する。
論文 参考訳(メタデータ) (2024-03-18T08:00:23Z) - Leveraging vision-language models for fair facial attribute classification [19.93324644519412]
汎用視覚言語モデル(英: General-purpose Vision-Language Model, VLM)は、共通感性属性のための豊富な知識源である。
我々は,VLM予測値と人間定義属性分布の対応関係を解析した。
複数のベンチマークの顔属性分類データセットの実験は、既存の教師なしベースラインよりもモデルの公平性の向上を示している。
論文 参考訳(メタデータ) (2024-03-15T18:37:15Z) - Exploring Diverse Representations for Open Set Recognition [51.39557024591446]
オープンセット認識(OSR)では、テスト中に未知のサンプルを拒絶しながら、クローズドセットに属するサンプルを分類する必要がある。
現在、生成モデルはOSRの差別モデルよりもよく機能している。
本稿では,多種多様な表現を識別的に学習するMulti-Expert Diverse Attention Fusion(MEDAF)を提案する。
論文 参考訳(メタデータ) (2024-01-12T11:40:22Z) - Self-Evolution Learning for Mixup: Enhance Data Augmentation on Few-Shot
Text Classification Tasks [75.42002070547267]
テキスト分類におけるデータ拡張のための自己進化学習(SE)に基づくミックスアップ手法を提案する。
モデル出力と原サンプルの1つのホットラベルを線形に補間して,新しい軟質なラベル混在を生成する,新しいインスタンス固有ラベル平滑化手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T23:43:23Z) - Open-Set Recognition with Gradient-Based Representations [16.80077149399317]
本稿では、勾配に基づく表現を利用して未知の検出器を既知のクラスのみで訓練することを提案する。
我々の勾配に基づくアプローチは、オープンセットの分類において、最先端の手法を最大11.6%上回っていることを示す。
論文 参考訳(メタデータ) (2022-06-16T14:54:12Z) - Active Learning for Open-set Annotation [38.739845944840454]
我々はLfOSAと呼ばれる新しいアクティブラーニングフレームワークを提案する。このフレームワークは、効果的なサンプリング戦略を用いて分類性能を高め、アノテーションのための既知のクラスからサンプルを正確に検出する。
実験結果から,提案手法は既知のクラスの選択精度を著しく向上し,アノテーションコストの低い分類精度を最先端の能動学習法よりも向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-18T06:11:51Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Incremental Learning from Low-labelled Stream Data in Open-Set Video
Face Recognition [0.0]
本稿では,深層機能エンコーダとSVMのオープンセット動的アンサンブルを組み合わせた新しいインクリメンタル学習手法を提案する。
本手法は,教師なしの操作データを用いて認識性を向上させる。
結果は、非適応状態の方法に対する最大15%のF1スコア増加の利点を示しています。
論文 参考訳(メタデータ) (2020-12-17T13:28:13Z) - Open Set Recognition with Conditional Probabilistic Generative Models [51.40872765917125]
オープンセット認識のための条件付き確率生成モデル(CPGM)を提案する。
CPGMは未知のサンプルを検出できるが、異なる潜在特徴を条件付きガウス分布に近似させることで、既知のクラスを分類できる。
複数のベンチマークデータセットの実験結果から,提案手法がベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2020-08-12T06:23:49Z) - Conditional Gaussian Distribution Learning for Open Set Recognition [10.90687687505665]
オープンセット認識のための条件付きガウス分布学習(CGDL)を提案する。
未知のサンプルを検出することに加えて、異なる潜伏特徴を異なるガウスモデルに近似させることにより、既知のサンプルを分類することもできる。
いくつかの標準画像に対する実験により,提案手法はベースライン法を著しく上回り,新たな最先端結果が得られることが明らかになった。
論文 参考訳(メタデータ) (2020-03-19T14:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。