論文の概要: Meta Discovery: Learning to Discover Novel Classes given Very Limited
Data
- arxiv url: http://arxiv.org/abs/2102.04002v1
- Date: Mon, 8 Feb 2021 04:53:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 19:01:14.506559
- Title: Meta Discovery: Learning to Discover Novel Classes given Very Limited
Data
- Title(参考訳): メタディスカバリー: 限られたデータから新しいクラスを見つけるための学習
- Authors: Haoang Chi and Feng Liu and Wenjing Yang and Long Lan and Tongliang
Liu and Gang Niu and Bo Han
- Abstract要約: 本稿では,L2DNCをメタラーニングにリンクすることで,L2DNCの分析と改善を行う。
L2DNCは理論的に解けるだけでなく、メタラーニングアルゴリズムによって、提案したフレームワークに適合するようにわずかに修正され、経験的に解決できる。
- 参考スコア(独自算出の注目度): 59.90813997957849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In learning to discover novel classes(L2DNC), we are given labeled data from
seen classes and unlabeled data from unseen classes, and we need to train
clustering models for the unseen classes. Since L2DNC is a new problem, its
application scenario and implicit assumption are unclear. In this paper, we
analyze and improve it by linking it to meta-learning: although there are no
meta-training and meta-test phases, the underlying assumption is exactly the
same, namely high-level semantic features are shared among the seen and unseen
classes. Under this assumption, L2DNC is not only theoretically solvable, but
also can be empirically solved by meta-learning algorithms slightly modified to
fit our proposed framework. This L2DNC methodology significantly reduces the
amount of unlabeled data needed for training and makes it more practical, as
demonstrated in experiments. The use of very limited data is also justified by
the application scenario of L2DNC: since it is unnatural to label only
seen-class data, L2DNC is causally sampling instead of labeling. The
unseen-class data should be collected on the way of collecting seen-class data,
which is why they are novel and first need to be clustered.
- Abstract(参考訳): 新たなクラス(L2DNC)を学習するためには、見知らぬクラスのラベル付きデータと見つからないクラスのラベルなしデータを与え、見つからないクラスのクラスタリングモデルを訓練する必要がある。
L2DNCは新しい問題であるため、その適用シナリオと暗黙の仮定は不明である。
本稿では、メタトレーニングとメタテストのフェーズは存在しないが、基礎となる仮定はまったく同じであり、すなわち、目に見えないクラスと未知のクラス間で高レベルのセマンティクス機能が共有される。
この仮定の下では、L2DNCは理論的に解けるだけでなく、提案したフレームワークに適合するようにメタラーニングアルゴリズムをわずかに修正することで、経験的に解決できる。
このL2DNC手法は、トレーニングに必要なラベルなしデータの量を著しく削減し、実験で示されたように、より実用的なものにする。
非常に限られたデータの使用はまた、L2DNCのアプリケーションシナリオによって正当化されます。
unseenクラスのデータは、見知らぬクラスのデータ収集の途中で収集する必要があるため、最初にクラスタ化する必要がある。
関連論文リスト
- MetaGCD: Learning to Continually Learn in Generalized Category Discovery [26.732455383707798]
事前に定義されたクラスでトレーニングされたモデルが、ラベルのないデータに絶えず遭遇する実世界のシナリオを考察する。
目標は、既知のクラスのパフォーマンスを維持しながら、新しいクラスを継続的に発見することである。
そこで我々はMetaGCDと呼ばれる手法を提案し,忘れることなく漸進的に発見する方法を学習する。
論文 参考訳(メタデータ) (2023-08-21T22:16:49Z) - CELDA: Leveraging Black-box Language Model as Enhanced Classifier
without Labels [14.285609493077965]
クラスタリング強化線形識別分析(Linar Discriminative Analysis)は、非常に弱いスーパービジョン信号を用いてテキスト分類精度を向上させる新しい手法である。
我々のフレームワークは、LMモデルやデータラベルの重みや勾配にアクセスすることなく、正確な決定境界を描画する。
論文 参考訳(メタデータ) (2023-06-05T08:35:31Z) - Detecting Novelties with Empty Classes [6.953730499849023]
我々は、新しいクラスの候補として、異常検出に基づいて、配布外データ(OoD)を検索する。
1)DNNがOoDサンプルを空のクラスに割り当て、2)内部クラスの特徴距離を最小化する2つの損失関数を導入する。
論文 参考訳(メタデータ) (2023-04-30T19:52:47Z) - Universal Semi-Supervised Learning for Medical Image Classification [21.781201758182135]
セミ教師付き学習(SSL)は、適切なラベル付きトレーニングデータを収集するコストを削減できるため、多くの注目を集めている。
従来のSSLは、ラベル付きデータとラベルなしデータが同じディストリビューションのものであるべきだという仮定に基づいて構築されている。
本研究では,未表示のラベル付きデータを利用した半教師付き医療画像分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-08T16:12:36Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - Are labels informative in semi-supervised learning? -- Estimating and
leveraging the missing-data mechanism [4.675583319625962]
半教師付き学習は、ラベルのないデータを利用して機械学習モデルを改善するための強力な技術である。
これは、あるクラスが他のクラスよりもラベル付けされる可能性が高い場合に発生する、情報的ラベルの存在に影響される可能性がある。
本稿では,データ不足のメカニズムを推定し,逆確率重み付けを用いてSSLアルゴリズムを劣化させることにより,この問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-15T09:18:46Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。