論文の概要: Out-Of-Distribution Detection In Unsupervised Continual Learning
- arxiv url: http://arxiv.org/abs/2204.05462v1
- Date: Tue, 12 Apr 2022 01:24:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 13:15:33.671171
- Title: Out-Of-Distribution Detection In Unsupervised Continual Learning
- Title(参考訳): 教師なし連続学習における分布外検出
- Authors: Jiangpeng He and Fengqing Zhu
- Abstract要約: 教師なし連続学習は、人間のアノテーションを必要とせずに、新しいタスクを段階的に学習することを目的としている。
各新しいデータが新しいタスクに対応するかどうかを最初に識別するためには、配布外検知器が必要である。
本稿では,まず出力バイアスを補正し,分布内データに対する出力信頼度を高めることによって,新しいOOD検出手法を提案する。
- 参考スコア(独自算出の注目度): 7.800379384628357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised continual learning aims to learn new tasks incrementally without
requiring human annotations. However, most existing methods, especially those
targeted on image classification, only work in a simplified scenario by
assuming all new data belong to new tasks, which is not realistic if the class
labels are not provided. Therefore, to perform unsupervised continual learning
in real life applications, an out-of-distribution detector is required at
beginning to identify whether each new data corresponds to a new task or
already learned tasks, which still remains under-explored yet. In this work, we
formulate the problem for Out-of-distribution Detection in Unsupervised
Continual Learning (OOD-UCL) with the corresponding evaluation protocol. In
addition, we propose a novel OOD detection method by correcting the output bias
at first and then enhancing the output confidence for in-distribution data
based on task discriminativeness, which can be applied directly without
modifying the learning procedures and objectives of continual learning. Our
method is evaluated on CIFAR-100 dataset by following the proposed evaluation
protocol and we show improved performance compared with existing OOD detection
methods under the unsupervised continual learning scenario.
- Abstract(参考訳): 教師なし連続学習は、人間のアノテーションを必要とせずに、新しいタスクを段階的に学習することを目的としている。
しかし、既存のほとんどの方法、特に画像分類をターゲットにした手法は、すべての新しいデータが新しいタスクに属すると仮定することで、単純化されたシナリオでのみ機能する。
したがって、実生活アプリケーションで教師なし連続学習を行うには、まず、新しいデータが新しいタスクに対応するか、既に学習済みのタスクに対応するかを特定するために、配布外検出が必要である。
本研究では,教師なし連続学習(OOD-UCL)におけるアウト・オブ・ディストリビューション検出の問題を,対応する評価プロトコルを用いて定式化する。
また, 学習の学習手順や目的を変更することなく, 直接適用可能なタスク識別性に基づいて, まずは出力バイアスを補正し, 分布内データの出力信頼度を高める新たなood検出法を提案する。
本手法は,提案した評価プロトコルに従ってCIFAR-100データセット上で評価し,教師なし連続学習シナリオ下での既存のOOD検出手法と比較して改善された性能を示す。
関連論文リスト
- Unsupervised Transfer Learning via Adversarial Contrastive Training [3.227277661633986]
対戦型コントラスト学習(ACT)を用いた新しい教師なしトランスファー学習手法を提案する。
実験により, 細調整線形プローブとK-NNプロトコルを用いて, 各種データセットの分類精度に優れることを示した。
論文 参考訳(メタデータ) (2024-08-16T05:11:52Z) - Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - SURF: Semi-supervised Reward Learning with Data Augmentation for
Feedback-efficient Preference-based Reinforcement Learning [168.89470249446023]
我々は、大量のラベルなしサンプルとデータ拡張を利用する半教師付き報酬学習フレームワークSURFを提案する。
報奨学習にラベルのないサンプルを活用するために,選好予測器の信頼性に基づいてラベルのないサンプルの擬似ラベルを推定する。
本実験は, ロボット操作作業における嗜好に基づく手法のフィードバック効率を有意に向上させることを実証した。
論文 参考訳(メタデータ) (2022-03-18T16:50:38Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Continually Learning Self-Supervised Representations with Projected
Functional Regularization [39.92600544186844]
近年の自己教師あり学習手法は高品質な画像表現を学習でき、教師ありの手法でギャップを埋めている。
これらの手法は、新たな知識を段階的に取得することができない -- 実際、主にIDデータによる事前学習フェーズとしてのみ使用される。
従来の知識を忘れないように,機能正規化の利用を提案する。
論文 参考訳(メタデータ) (2021-12-30T11:59:23Z) - Gradient-based Novelty Detection Boosted by Self-supervised Binary
Classification [20.715158729811755]
新規性検出は、アウト・オブ・ディストリビューション(OOD)データを自動的に識別することを目的としている。
我々は、事前に定義されたOODデータに依存しない、新しい自己教師型アプローチを提案する。
複数のデータセットによる評価では、提案手法は最先端の教師なし手法と教師なし手法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-12-18T01:17:15Z) - Lifelong Intent Detection via Multi-Strategy Rebalancing [18.424132535727217]
本稿では,新しいデータに対するIDモデルを継続的に訓練し,新たな意図を学習するライフロングインテント検出(LID)を提案する。
既存の生涯学習手法は、通常、LIDタスクにおける古いデータと新しいデータの間の深刻な不均衡に悩まされる。
本稿では,コサイン正規化,階層的知識蒸留,クラス間マージン損失からなる,新しい生涯学習手法であるMulti-Strategy Rebalancing(MSR)を提案する。
論文 参考訳(メタデータ) (2021-08-10T04:35:13Z) - On the Practicality of Deterministic Epistemic Uncertainty [106.06571981780591]
決定論的不確実性法(DUM)は,分布外データの検出において高い性能を達成する。
DUMが十分に校正されており、現実のアプリケーションにシームレスにスケールできるかどうかは不明だ。
論文 参考訳(メタデータ) (2021-07-01T17:59:07Z) - Continual Learning From Unlabeled Data Via Deep Clustering [7.704949298975352]
継続的学習は、新しいタスクが到着するたびにモデルをスクラッチから再トレーニングするのではなく、少ない計算とメモリリソースを使って、新しいタスクをインクリメンタルに学習することを目的としている。
クラスタ割り当てから得られた擬似ラベルをモデル更新に用いて,教師なしモードで継続的学習を実現する新たなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-14T23:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。