論文の概要: Weak Novel Categories without Tears: A Survey on Weak-Shot Learning
- arxiv url: http://arxiv.org/abs/2110.02651v1
- Date: Wed, 6 Oct 2021 11:04:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 00:18:34.010093
- Title: Weak Novel Categories without Tears: A Survey on Weak-Shot Learning
- Title(参考訳): 涙のない弱いノベルカテゴリ:弱いショット学習に関する調査
- Authors: Li Niu
- Abstract要約: あらゆるカテゴリについて、十分な完全な注釈付きトレーニングデータを集めるのに、時間と労力がかかります。
弱いショット学習は、補助的な完全教師付きカテゴリーによる弱い教師付き学習として扱われる。
- 参考スコア(独自算出の注目度): 10.668094663201385
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep learning is a data-hungry approach, which requires massive training
data. However, it is time-consuming and labor-intensive to collect abundant
fully-annotated training data for all categories. Assuming the existence of
base categories with adequate fully-annotated training samples, different
paradigms requiring fewer training samples or weaker annotations for novel
categories have attracted growing research interest. Among them, zero-shot
(resp., few-shot) learning explores using zero (resp., a few) training samples
for novel categories, which lowers the quantity requirement for novel
categories. Instead, weak-shot learning lowers the quality requirement for
novel categories. Specifically, sufficient training samples are collected for
novel categories but they only have weak annotations. In different tasks, weak
annotations are presented in different forms (e.g., noisy labels for image
classification, image labels for object detection, bounding boxes for
segmentation), similar to the definitions in weakly supervised learning.
Therefore, weak-shot learning can also be treated as weakly supervised learning
with auxiliary fully supervised categories. In this paper, we discuss the
existing weak-shot learning methodologies in different tasks and summarize the
codes at https://github.com/bcmi/Awesome-Weak-Shot-Learning.
- Abstract(参考訳): ディープラーニングは、大量のトレーニングデータを必要とするデータ格納型アプローチである。
しかし、すべてのカテゴリで十分に注釈付けされたトレーニングデータを集めるのに時間と労力がかかる。
十分な完全注釈付きトレーニングサンプルを持つベースカテゴリの存在を仮定すると、異なるパラダイムではトレーニングサンプルが少なくなり、新しいカテゴリに対するより弱いアノテーションが必要となる。
中でもゼロショット学習(resp., few-shot)は、新しいカテゴリのゼロ(resp., few)トレーニングサンプルを用いて探索し、新しいカテゴリの量要件を低くする。
代わりに、弱いショット学習は、新しいカテゴリの品質要件を低くする。
具体的には、新しいカテゴリのために十分なトレーニングサンプルを収集するが、弱いアノテーションしか持たない。
異なるタスクでは、弱いアノテーションは異なる形式(例えば、画像分類のためのノイズラベル、オブジェクト検出のためのイメージラベル、セグメンテーションのためのバウンディングボックス)で示され、弱い教師付き学習の定義と同様である。
したがって、弱ショット学習は補助的な完全教師付きカテゴリで弱教師付き学習として扱うこともできる。
本稿では,既存の弱ショット学習手法を異なるタスクで議論し,コードをhttps://github.com/bcmi/awesome-weak-shot-learningで要約する。
関連論文リスト
- Liberating Seen Classes: Boosting Few-Shot and Zero-Shot Text Classification via Anchor Generation and Classification Reframing [38.84431954053434]
短いショットとゼロショットのテキスト分類は、ラベル付きサンプルやラベル付きサンプルが全くない新しいクラスからのサンプルを認識することを目的としている。
少数ショットとゼロショットのテキスト分類のためのシンプルで効果的な戦略を提案する。
論文 参考訳(メタデータ) (2024-05-06T15:38:32Z) - A Simple Approach to Adversarial Robustness in Few-shot Image
Classification [20.889464448762176]
単純な移動学習に基づくアプローチは、逆向きに頑健な数ショット分類器を訓練するのに有効であることを示す。
また,少数ショットカテゴリのセントロイドをベースクラスに校正する手法を提案する。
論文 参考訳(メタデータ) (2022-04-11T22:46:41Z) - Revisiting Deep Local Descriptor for Improved Few-Shot Classification [56.74552164206737]
textbfDense textbfClassification と textbfAttentive textbfPooling を利用して埋め込みの質を向上させる方法を示す。
広範に使われているグローバル平均プール (GAP) の代わりに, 注意深いプールを施し, 特徴マップをプールすることを提案する。
論文 参考訳(メタデータ) (2021-03-30T00:48:28Z) - Few Shot Learning With No Labels [28.91314299138311]
数少ない学習者は、少数のトレーニングサンプルしか与えていない新しいカテゴリを認識することを目指している。
主な課題は、限られたデータに過度に適合することを避け、新しいクラスへの優れた一般化を確実にすることだ。
既存の文献は、ラベル要件を新しいクラスからベースクラスに単純にシフトすることで、大量の注釈付きデータを利用する。
論文 参考訳(メタデータ) (2020-12-26T14:40:12Z) - Closing the Generalization Gap in One-Shot Object Detection [92.82028853413516]
強力な数ショット検出モデルの鍵は、高度なメトリック学習アプローチではなく、カテゴリの数をスケールすることにある。
将来的なデータアノテーションの取り組みは、より広範なデータセットに集中し、より多くのカテゴリにアノテートする必要がある。
論文 参考訳(メタデータ) (2020-11-09T09:31:17Z) - One-bit Supervision for Image Classification [121.87598671087494]
1ビットの監視は、不完全なアノテーションから学ぶための新しい設定である。
負ラベル抑圧を既成の半教師付き学習アルゴリズムに組み込んだ多段階学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-09-14T03:06:23Z) - Few-Shot Learning with Intra-Class Knowledge Transfer [100.87659529592223]
アンバランスなデータセットを用いた数発の分類タスクについて検討する。
近年の研究では、生成モデルを用いて数発の授業のトレーニングデータを増やすことで、この課題を解決することが提案されている。
本稿では,近隣クラスが類似した統計情報を共有するという直感で,近隣クラスからのクラス内知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-08-22T18:15:38Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z) - Sharing Matters for Generalization in Deep Metric Learning [22.243744691711452]
本研究は,アノテーションやデータトレーニングを必要とせずに,クラスを分離した特徴を学習する方法を検討する。
我々のアプローチを新しいトリプルトサンプリング戦略として定式化することにより、最近のランキング損失フレームワークに容易に適用できる。
論文 参考訳(メタデータ) (2020-04-12T10:21:15Z) - Few-Shot Learning with Geometric Constraints [25.22980274856574]
分類における少数ショット学習の問題点を考察する。
ネットワークを微調整するための幾何的制約を2つ提案する。
論文 参考訳(メタデータ) (2020-03-20T08:50:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。