論文の概要: One-Shot Image Classification by Learning to Restore Prototypes
- arxiv url: http://arxiv.org/abs/2005.01234v1
- Date: Mon, 4 May 2020 02:11:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 00:20:56.976825
- Title: One-Shot Image Classification by Learning to Restore Prototypes
- Title(参考訳): プロトタイプ復元学習によるワンショット画像分類
- Authors: Wanqi Xue, Wei Wang
- Abstract要約: ワンショット画像分類は、カテゴリ毎に1つの画像しか持たないデータセット上で、イメージ分類器を訓練することを目的としている。
ワンショット学習では、既存のメトリック学習アプローチは、単一のトレーニングイメージがクラスを代表するものではない可能性があるため、パフォーマンスが低下する。
本稿では,RestoreNet で表される単純な回帰モデルを提案する。画像特徴のクラス変換を学習し,特徴空間のクラス中心に画像を移動させる。
- 参考スコア(独自算出の注目度): 11.448423413463916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-shot image classification aims to train image classifiers over the
dataset with only one image per category. It is challenging for modern deep
neural networks that typically require hundreds or thousands of images per
class. In this paper, we adopt metric learning for this problem, which has been
applied for few- and many-shot image classification by comparing the distance
between the test image and the center of each class in the feature space.
However, for one-shot learning, the existing metric learning approaches would
suffer poor performance because the single training image may not be
representative of the class. For example, if the image is far away from the
class center in the feature space, the metric-learning based algorithms are
unlikely to make correct predictions for the test images because the decision
boundary is shifted by this noisy image. To address this issue, we propose a
simple yet effective regression model, denoted by RestoreNet, which learns a
class agnostic transformation on the image feature to move the image closer to
the class center in the feature space. Experiments demonstrate that RestoreNet
obtains superior performance over the state-of-the-art methods on a broad range
of datasets. Moreover, RestoreNet can be easily combined with other methods to
achieve further improvement.
- Abstract(参考訳): ワンショット画像分類は、カテゴリ毎に1つのイメージしか持たないデータセット上のイメージ分類器をトレーニングすることを目的としている。
最新のディープニューラルネットワークでは、1クラスあたり数百から数千の画像を必要とするのが普通だ。
本稿では,特徴空間におけるテスト画像と各クラスの中心間の距離を比較することで,少数の画像分類に応用されたメトリクス学習を採用する。
しかし,一対一の学習では,一対一の学習イメージがクラスを代表するものではないため,既存のメトリック学習アプローチは性能が低下する。
例えば、もし画像が特徴空間のクラス中心から遠く離れている場合、メトリックラーニングベースのアルゴリズムは、このノイズの多い画像によって決定境界が移動されるため、テスト画像の正確な予測を行うことができない。
この問題に対処するため,RestoreNet で表されるシンプルな回帰モデルを提案し,画像上のクラスに依存しない変換を学習し,画像が特徴空間のクラス中心に近付くようにする。
実験により、RestoreNetは幅広いデータセットの最先端メソッドよりも優れたパフォーマンスが得られることが示された。
さらにRestoreNetは、他のメソッドと簡単に組み合わせて、さらなる改善を実現できます。
関連論文リスト
- Unicom: Universal and Compact Representation Learning for Image
Retrieval [65.96296089560421]
大規模LAION400Mを,CLIPモデルにより抽出された共同テキストと視覚的特徴に基づいて,100万の擬似クラスにクラスタリングする。
このような矛盾を緩和するために、我々は、マージンベースのソフトマックス損失を構築するために、ランダムにクラス間の部分的なプロトタイプを選択する。
提案手法は,複数のベンチマークにおいて,教師なし,教師なしの画像検索手法よりも優れていた。
論文 参考訳(メタデータ) (2023-04-12T14:25:52Z) - Matching Feature Sets for Few-Shot Image Classification [22.84472344406448]
セットベースの表現は本質的に、ベースクラスからの画像のよりリッチな表現を構築します。
私たちのアプローチは、SetFeatと呼ばれ、既存のエンコーダアーキテクチャに浅い自己アテンションメカニズムを組み込んでいます。
論文 参考訳(メタデータ) (2022-04-02T22:42:54Z) - AugNet: End-to-End Unsupervised Visual Representation Learning with
Image Augmentation [3.6790362352712873]
我々は、未ラベル画像の集合から画像特徴を学習するための新しいディープラーニングトレーニングパラダイムであるAugNetを提案する。
実験により,低次元空間における画像の表現が可能であることを実証した。
多くのディープラーニングベースの画像検索アルゴリズムとは異なり、我々のアプローチは外部アノテーション付きデータセットへのアクセスを必要としない。
論文 参考訳(メタデータ) (2021-06-11T09:02:30Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - Improving Few-shot Learning with Weakly-supervised Object Localization [24.3569501375842]
画像のクラス関連領域から特徴を抽出してクラス表現を生成する新しいフレームワークを提案する。
提案手法は, miniImageNet および tieredImageNet ベンチマークにおいて,ベースライン数ショットモデルよりも優れている。
論文 参考訳(メタデータ) (2021-05-25T07:39:32Z) - Learning to Focus: Cascaded Feature Matching Network for Few-shot Image
Recognition [38.49419948988415]
ディープネットワークは、多数の画像でトレーニングすることで、カテゴリのオブジェクトを正確に認識することを学ぶことができる。
低ショット画像認識タスク(low-shot image recognition task)として知られるメタラーニングの課題は、1つのカテゴリの認識モデルを学ぶためにアノテーション付き画像しか利用できない場合に発生する。
この問題を解決するため,Cascaded Feature Matching Network (CFMN) と呼ばれる手法を提案する。
EmphminiImageNet と Omniglot の2つの標準データセットを用いた数ショット学習実験により,本手法の有効性が確認された。
論文 参考訳(メタデータ) (2021-01-13T11:37:28Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Background Splitting: Finding Rare Classes in a Sea of Background [55.03789745276442]
我々は,少数の稀なカテゴリの画像分類のための,高精度な深層モデルの訓練という現実的な問題に焦点をあてる。
これらのシナリオでは、ほとんどの画像はデータセットの背景カテゴリに属します(データセットの95%は背景です)。
非バランスなデータセットをトレーニングするための標準的な微調整アプローチと最先端アプローチの両方が、この極端な不均衡の存在下で正確な深層モデルを生成していないことを実証する。
論文 参考訳(メタデータ) (2020-08-28T23:05:15Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。