論文の概要: Fine-grained Angular Contrastive Learning with Coarse Labels
- arxiv url: http://arxiv.org/abs/2012.03515v1
- Date: Mon, 7 Dec 2020 08:09:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:24:00.611312
- Title: Fine-grained Angular Contrastive Learning with Coarse Labels
- Title(参考訳): 粗いラベルを用いた細粒度角コントラスト学習
- Authors: Guy Bukchin, Eli Schwartz, Kate Saenko, Ori Shahar, Rogerio Feris,
Raja Giryes, Leonid Karlinsky
- Abstract要約: 教師付きおよび自己監督型コントラスト前訓練を効果的に組み合わせることができる新しい「Angularの正規化」モジュールを紹介します。
この研究は、C2FS分類のこの新しい、挑戦的で、非常に実用的なトピックに関する将来の研究の道を開くのに役立ちます。
- 参考スコア(独自算出の注目度): 72.80126601230447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning methods offer pre-training techniques optimized for easier
later adaptation of the model to new classes (unseen during training) using one
or a few examples. This adaptivity to unseen classes is especially important
for many practical applications where the pre-trained label space cannot remain
fixed for effective use and the model needs to be "specialized" to support new
categories on the fly. One particularly interesting scenario, essentially
overlooked by the few-shot literature, is Coarse-to-Fine Few-Shot (C2FS), where
the training classes (e.g. animals) are of much `coarser granularity' than the
target (test) classes (e.g. breeds). A very practical example of C2FS is when
the target classes are sub-classes of the training classes. Intuitively, it is
especially challenging as (both regular and few-shot) supervised pre-training
tends to learn to ignore intra-class variability which is essential for
separating sub-classes. In this paper, we introduce a novel 'Angular
normalization' module that allows to effectively combine supervised and
self-supervised contrastive pre-training to approach the proposed C2FS task,
demonstrating significant gains in a broad study over multiple baselines and
datasets. We hope that this work will help to pave the way for future research
on this new, challenging, and very practical topic of C2FS classification.
- Abstract(参考訳): 数少ない学習方法は、1つまたは数つの例を使って、モデルが新しいクラス(トレーニング中は無視される)に後から適応しやすいように最適化された事前学習技術を提供する。
このunseenクラスへの適応性は、事前訓練されたラベル空間が効果的に使用するために固定されず、モデルがオンザフライで新しいカテゴリをサポートするために「特別化」されなければならない多くの実用的なアプリケーションにとって特に重要である。
特に興味深いシナリオは、基本的に少数の文献で見落とされ、訓練クラス(例:C2FS)である。
動物)は、ターゲット(テスト)クラス(例)よりもはるかに粗い粒度である。
品種)。
C2FSの非常に実用的な例は、ターゲットクラスがトレーニングクラスのサブクラスである場合である。
直感的には、教師付きプレトレーニングは、サブクラスの分離に不可欠なクラス内変動を無視する傾向にあるため、特に困難である。
本稿では,教師付きおよび自己教師型コントラスト型プレトレーニングを効果的に組み合わせて提案したC2FSタスクにアプローチ可能な,新しいAngular正規化モジュールを提案する。
この研究が、c2fs分類の新しい、挑戦的で、非常に実用的なトピックに関する今後の研究の道を開くのに役立つことを願っている。
関連論文リスト
- Enhancing Visual Continual Learning with Language-Guided Supervision [76.38481740848434]
継続的な学習は、モデルが以前獲得した知識を忘れずに新しいタスクを学習できるようにすることを目的としている。
ワンホットラベルが伝達する少ない意味情報は,タスク間の効果的な知識伝達を妨げている,と我々は主張する。
具体的には, PLM を用いて各クラスのセマンティックターゲットを生成し, 凍結し, 監視信号として機能する。
論文 参考訳(メタデータ) (2024-03-24T12:41:58Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Sylph: A Hypernetwork Framework for Incremental Few-shot Object
Detection [8.492340530784697]
大量のデータを含む多くの基本カテゴリがメタトレーニングに利用できる場合、ファネチューンフリーのiFSDは極めて有効であることを示す。
我々はCOCOとLVISの両方でモデルをベンチマークし、LVISの長テールレアクラスで最大17%のAPを報告した。
論文 参考訳(メタデータ) (2022-03-25T20:39:00Z) - Learning What Not to Segment: A New Perspective on Few-Shot Segmentation [63.910211095033596]
近年では、FSS ( few-shot segmentation) が広く開発されている。
本稿では,問題を緩和するための新鮮で直接的な知見を提案する。
提案されたアプローチのユニークな性質を踏まえて、より現実的で挑戦的な設定にまで拡張する。
論文 参考訳(メタデータ) (2022-03-15T03:08:27Z) - Subspace Regularizers for Few-Shot Class Incremental Learning [26.372024890126408]
既存のクラスの重みに代表される部分空間に近づき、新しいクラスに対する重みベクトルを奨励する、新しい部分空間正規化スキームの族を示す。
この結果から,クラス表現の幾何学的正則化は連続学習に有効なツールであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T22:19:53Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - Incremental Few-Shot Object Detection for Robotics [15.082365880914896]
クラスインクリメンタルなFew-Shot Object Detection (CI-FSOD) フレームワークにより、ディープオブジェクト検出ネットワークは、少数のサンプルから効果的な連続学習を行うことができる。
我々のフレームワークは単純だが有効であり、AP性能において2.4ポイントの差で以前のSOTAより優れています。
論文 参考訳(メタデータ) (2020-05-06T08:05:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。