論文の概要: Continual Local Replacement for Few-shot Learning
- arxiv url: http://arxiv.org/abs/2001.08366v2
- Date: Tue, 10 Mar 2020 13:21:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 10:03:42.998607
- Title: Continual Local Replacement for Few-shot Learning
- Title(参考訳): ファウショット学習のための連続的局所的置換
- Authors: Canyu Le, Zhonggui Chen, Xihan Wei, Biao Wang, Lei Zhang
- Abstract要約: 少数ショット学習の目標は,1つないし少数のトレーニングデータに基づいて,新しいクラスを認識可能なモデルを学習することにある。
1)新しいクラスの優れた特徴表現が欠けていること、(2)ラベル付きデータの一部が真のデータ分布を正確に表現できないこと、である。
データ不足問題に対処するために,新たな局所的置換戦略を提案する。
- 参考スコア(独自算出の注目度): 13.956960291580938
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of few-shot learning is to learn a model that can recognize novel
classes based on one or few training data. It is challenging mainly due to two
aspects: (1) it lacks good feature representation of novel classes; (2) a few
of labeled data could not accurately represent the true data distribution and
thus it's hard to learn a good decision function for classification. In this
work, we use a sophisticated network architecture to learn better feature
representation and focus on the second issue. A novel continual local
replacement strategy is proposed to address the data deficiency problem. It
takes advantage of the content in unlabeled images to continually enhance
labeled ones. Specifically, a pseudo labeling method is adopted to constantly
select semantically similar images on the fly. Original labeled images will be
locally replaced by the selected images for the next epoch training. In this
way, the model can directly learn new semantic information from unlabeled
images and the capacity of supervised signals in the embedding space can be
significantly enlarged. This allows the model to improve generalization and
learn a better decision boundary for classification. Our method is conceptually
simple and easy to implement. Extensive experiments demonstrate that it can
achieve state-of-the-art results on various few-shot image recognition
benchmarks.
- Abstract(参考訳): 少数ショット学習の目標は、1つまたは複数のトレーニングデータに基づいて新しいクラスを認識できるモデルを学ぶことである。
1)新規クラスの優れた特徴表現が欠如している、(2)ラベル付きデータのいくつかは真のデータ分布を正確に表現できないため、分類のよい決定関数を学ぶのは難しい、という2つの側面から課題となっている。
本研究では,高度なネットワークアーキテクチャを用いて,より優れた特徴表現を学習し,第2の課題に注目する。
データ不足問題に対処するために,新たな局所的置換戦略を提案する。
ラベルのない画像のコンテンツを活用することで、ラベル付き画像が継続的に強化される。
具体的には、フライ時に意味的に類似した画像を常に選択するために擬似ラベリング法を採用する。
オリジナルラベル付き画像は、次のエポックトレーニングのために選択された画像に局所的に置き換えられる。
このように、ラベルのない画像から直接新しい意味情報を学習することができ、埋め込み空間における教師付き信号の容量を大幅に拡大することができる。
これにより、モデルは一般化を改善し、分類のためのより良い決定境界を学ぶことができる。
私たちの方法は概念的にシンプルで実装が簡単です。
大規模な実験により、様々な数ショット画像認識ベンチマークで最先端の結果が得られることが示された。
関連論文リスト
- Few-shot Class-Incremental Semantic Segmentation via Pseudo-Labeling and
Knowledge Distillation [3.4436201325139737]
セマンティックセグメンテーションモデルのための新しいクラスをいくつかの例から学習する問題に対処する。
限られたデータから学習するために、数発のトレーニングアノテーションを増強する擬似ラベル方式を提案する。
上記のステップを、統一的な学習目標を持つ単一の畳み込みニューラルネットワークに統合する。
論文 参考訳(メタデータ) (2023-08-05T05:05:37Z) - SATS: Self-Attention Transfer for Continual Semantic Segmentation [50.51525791240729]
連続的なセマンティックセグメンテーションは、連続的な分類学習と同じ破滅的な忘れの問題に悩まされる。
本研究では,各画像内の要素間の関係について,知識に関連する新しいタイプの情報伝達を提案する。
関係情報は、トランスフォーマースタイルのセグメンテーションモデルにおける自己アテンションマップから有効に得ることができる。
論文 参考訳(メタデータ) (2022-03-15T06:09:28Z) - Multi-label Iterated Learning for Image Classification with Label
Ambiguity [3.5736176624479654]
単一ラベルからの多ラベル学習の帰納バイアスを組み込むために,多ラベル反復学習(MILe)を提案する。
MILeは、バイナリ予測を伝搬することにより、画像のマルチラベル記述を構築する、シンプルだが効果的な手順である。
我々は,MILeがラベルノイズを効果的に低減し,WebVisionのような実世界の大規模ノイズデータに対して最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2021-11-23T22:10:00Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - An Empirical Study of the Collapsing Problem in Semi-Supervised 2D Human
Pose Estimation [80.02124918255059]
半教師付き学習は、ラベルなし画像の探索によってモデルの精度を高めることを目的としている。
私たちは相互に教え合うために2つのネットワークを学びます。
各ネットワーク内の容易なイメージに関するより信頼性の高い予測は、他のネットワークに対応するハードイメージについて学ぶように教えるために使用される。
論文 参考訳(メタデータ) (2020-11-25T03:29:52Z) - Multi-label Zero-shot Classification by Learning to Transfer from
External Knowledge [36.04579549557464]
マルチラベルゼロショット分類は、入力画像に対する複数の未知のクラスラベルを予測することを目的としている。
本稿では,外部知識の伝達を学習することで,新たなゼロショット分類フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-30T17:26:46Z) - One-Shot Image Classification by Learning to Restore Prototypes [11.448423413463916]
ワンショット画像分類は、カテゴリ毎に1つの画像しか持たないデータセット上で、イメージ分類器を訓練することを目的としている。
ワンショット学習では、既存のメトリック学習アプローチは、単一のトレーニングイメージがクラスを代表するものではない可能性があるため、パフォーマンスが低下する。
本稿では,RestoreNet で表される単純な回帰モデルを提案する。画像特徴のクラス変換を学習し,特徴空間のクラス中心に画像を移動させる。
論文 参考訳(メタデータ) (2020-05-04T02:11:30Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。