論文の概要: SHELS: Exclusive Feature Sets for Novelty Detection and Continual
Learning Without Class Boundaries
- arxiv url: http://arxiv.org/abs/2206.13720v1
- Date: Tue, 28 Jun 2022 03:09:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 12:33:54.363448
- Title: SHELS: Exclusive Feature Sets for Novelty Detection and Continual
Learning Without Class Boundaries
- Title(参考訳): SHELS: クラス境界のないノベルティ検出と継続学習のための排他的特徴セット
- Authors: Meghna Gummadi, David Kent, Jorge A. Mendez and Eric Eaton
- Abstract要約: Sparse High-Exclusive, Low-level-Shared feature representation (SHELS)を導入する。
SHELSは、ハイレベルな特徴の排他的セットと、必須で共有された低レベルな特徴の学習を促進する。
新規性検出にSHELSを用いることで,最先端のOOD検出法よりも統計的に有意な改善が得られた。
- 参考スコア(独自算出の注目度): 22.04165296584446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep neural networks (DNNs) have achieved impressive classification
performance in closed-world learning scenarios, they typically fail to
generalize to unseen categories in dynamic open-world environments, in which
the number of concepts is unbounded. In contrast, human and animal learners
have the ability to incrementally update their knowledge by recognizing and
adapting to novel observations. In particular, humans characterize concepts via
exclusive (unique) sets of essential features, which are used for both
recognizing known classes and identifying novelty. Inspired by natural
learners, we introduce a Sparse High-level-Exclusive, Low-level-Shared feature
representation (SHELS) that simultaneously encourages learning exclusive sets
of high-level features and essential, shared low-level features. The
exclusivity of the high-level features enables the DNN to automatically detect
out-of-distribution (OOD) data, while the efficient use of capacity via sparse
low-level features permits accommodating new knowledge. The resulting approach
uses OOD detection to perform class-incremental continual learning without
known class boundaries. We show that using SHELS for novelty detection results
in statistically significant improvements over state-of-the-art OOD detection
approaches over a variety of benchmark datasets. Further, we demonstrate that
the SHELS model mitigates catastrophic forgetting in a class-incremental
learning setting,enabling a combined novelty detection and accommodation
framework that supports learning in open-world settings
- Abstract(参考訳): ディープニューラルネットワーク(dnn)は、クローズドワールド学習シナリオにおいて印象的な分類性能を達成しているが、一般的には、概念の数が無制限であるダイナミックなオープンワールド環境において、未知のカテゴリへの一般化に失敗している。
対照的に、人間と動物の学習者は、新しい観察を認識し、適応することで知識を段階的に更新することができる。
特に人間は、既知のクラスを認識し、新規性を識別するために使用される、排他的(普遍的な)重要な特徴セットを通じて概念を特徴づける。
自然学習者から着想を得たSparse High-level-Exclusive, Low-level-Shared feature representation (SHELS)を導入する。
高レベルの特徴の排他性により、DNNは配布外データ(OOD)を自動的に検出すると同時に、疎低レベルの機能によるキャパシティの効率的な使用により、新たな知識の蓄積が可能になる。
結果として得られたアプローチは、OOD検出を使用して、既知のクラス境界なしにクラスインクリメンタルな学習を行う。
SHELSを新規性検出に使用すると、様々なベンチマークデータセットに対する最先端のOOD検出手法よりも統計的に有意な改善が得られた。
さらに,shelsモデルがクラスインクリメンタルな学習環境における破滅的忘れを緩和し,オープンワールド環境での学習を支援する新奇性検出と調節の複合フレームワークを導出することを示す。
関連論文リスト
- Deep Active Learning in the Open World [13.2318584850986]
オープンワールドのシナリオにデプロイされた機械学習モデルは、よく馴染みのない状況に遭遇し、予期しない状況でうまく機能しない。
我々は、新しいOODクラスを組み込むことで、モデル適応性を高めるように設計されたオープンワールド環境のための新しい能動的学習アルゴリズムであるALOEを紹介する。
以上の結果から,既知のクラスのパフォーマンス向上と新たなクラス発見との重大なトレードオフが明らかとなり,オープンワールド機械学習の進歩のステージが整った。
論文 参考訳(メタデータ) (2024-11-10T04:04:20Z) - High-Discriminative Attribute Feature Learning for Generalized Zero-Shot Learning [54.86882315023791]
一般化ゼロショット学習(HDAFL)のための高識別属性特徴学習(High-Discriminative Attribute Feature Learning)という革新的な手法を提案する。
HDAFLは複数の畳み込みカーネルを使用して、画像の属性と高い相関性を持つ識別領域を自動的に学習する。
また、属性間の識別能力を高めるために、Transformerベースの属性識別エンコーダを導入する。
論文 参考訳(メタデータ) (2024-04-07T13:17:47Z) - Learning Prompt with Distribution-Based Feature Replay for Few-Shot Class-Incremental Learning [56.29097276129473]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - Incremental Object Detection with CLIP [36.478530086163744]
そこで本研究では,CLIPなどの視覚言語モデルを用いて,異なるクラス集合に対するテキスト特徴埋め込みを生成する。
次に、段階的なシナリオをシミュレートするために、早期の学習段階において利用できない新しいクラスを置き換えるために、スーパークラスを使用します。
そこで我々は,この微妙に認識された検出ボックスを擬似アノテーションとしてトレーニングプロセスに組み込むことにより,検出性能をさらに向上させる。
論文 参考訳(メタデータ) (2023-10-13T01:59:39Z) - Evolving Knowledge Mining for Class Incremental Segmentation [113.59611699693092]
クラスインクリメンタルセマンティック(CISS)は、最近、現実世界のアプリケーションにおいて大きな重要性があるため、トレンドとなっている。
冷凍バックボーンを用いた新規なkNowleDgeマイニング法を提案する。
提案手法を2つの広く使用されているベンチマークで評価し,新しい最先端性能を一貫して示す。
論文 参考訳(メタデータ) (2023-06-03T07:03:15Z) - Class-Specific Semantic Reconstruction for Open Set Recognition [101.24781422480406]
オープンセット認識により、ディープニューラルネットワーク(DNN)は未知のクラスのサンプルを識別できる。
本稿では,自動エンコーダ(AE)とプロトタイプ学習を統合したCSSR(Class-Specific Semantic Reconstruction)を提案する。
複数のデータセットで実験を行った結果,提案手法は閉集合認識と開集合認識の両方において優れた性能を発揮することがわかった。
論文 参考訳(メタデータ) (2022-07-05T16:25:34Z) - Spatio-temporal Relation Modeling for Few-shot Action Recognition [100.3999454780478]
本稿では,高次時間表現を同時に学習しながら,クラス固有の特徴の識別性を向上する数ショットアクション認識フレームワークSTRMを提案する。
本手法は,本研究でもっとも優れた手法に比べて,分類精度が3.5%向上した。
論文 参考訳(メタデータ) (2021-12-09T18:59:14Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - ConCAD: Contrastive Learning-based Cross Attention for Sleep Apnea
Detection [16.938983046369263]
睡眠時無呼吸検出のための学習型クロスアテンションフレームワーク(ConCAD)を提案する。
提案フレームワークは,標準ディープラーニングモデルに容易に統合でき,専門家の知識とコントラスト学習を活用し,パフォーマンスを向上させる。
論文 参考訳(メタデータ) (2021-05-07T02:38:56Z) - Collective Decision of One-vs-Rest Networks for Open Set Recognition [0.0]
厳密で洗練された決定境界を設定することでOSRの性能を最大化できるという直感に基づく,シンプルなオープンセット認識(OSR)手法を提案する。
提案手法は, オーバージェネリゼーションを効果的に低減し, 最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-03-18T13:06:46Z) - SEKD: Self-Evolving Keypoint Detection and Description [42.114065439674036]
ラベルのない自然画像から高度な局所特徴モデルを学ぶための自己教師型フレームワークを提案する。
提案手法は, ホモグラフィー推定, 相対的なポーズ推定, および動きからの構造的タスクについてベンチマークする。
トレーニングされたモデルとともに、コードを公開します。
論文 参考訳(メタデータ) (2020-06-09T06:56:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。