論文の概要: Impact of base dataset design on few-shot image classification
- arxiv url: http://arxiv.org/abs/2007.08872v1
- Date: Fri, 17 Jul 2020 09:58:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 14:05:49.620288
- Title: Impact of base dataset design on few-shot image classification
- Title(参考訳): 画像分類におけるベースデータセット設計の影響
- Authors: Othman Sbai, Camille Couprie and Mathieu Aubry
- Abstract要約: 本研究では,異なる画像集合上で訓練された深部特徴を,数ショットの分類設定で評価することにより,トレーニングデータの変動の影響を系統的に研究する。
簡単なベースラインをアートアルゴリズムの先進的な状態に置き換えるよりも,数ショットの分類において,ベースデータセット設計がパフォーマンスを劇的に向上させることを示す。
- 参考スコア(独自算出の注目度): 33.31817928613412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quality and generality of deep image features is crucially determined by
the data they have been trained on, but little is known about this often
overlooked effect. In this paper, we systematically study the effect of
variations in the training data by evaluating deep features trained on
different image sets in a few-shot classification setting. The experimental
protocol we define allows to explore key practical questions. What is the
influence of the similarity between base and test classes? Given a fixed
annotation budget, what is the optimal trade-off between the number of images
per class and the number of classes? Given a fixed dataset, can features be
improved by splitting or combining different classes? Should simple or diverse
classes be annotated? In a wide range of experiments, we provide clear answers
to these questions on the miniImageNet, ImageNet and CUB-200 benchmarks. We
also show how the base dataset design can improve performance in few-shot
classification more drastically than replacing a simple baseline by an advanced
state of the art algorithm.
- Abstract(参考訳): 深層画像の特徴の品質と一般性は、彼らがトレーニングしたデータによって決定的に決定されるが、この効果についてはあまり知られていない。
そこで本研究では, 異なる画像集合で訓練された深部特徴を評価し, 訓練データの変化の影響を系統的に検討する。
私たちが定義する実験プロトコルは、重要な実用的疑問を探求することができる。
ベースクラスとテストクラスの類似性の影響はどのようなものか?
固定されたアノテーション予算が与えられた場合、クラス毎の画像数とクラス数との最適なトレードオフは何ですか?
固定データセットが与えられた場合、異なるクラスを分割または組み合わせることで、機能を改善することができるか?
シンプルなクラスや多様なクラスに注釈を付けるべきか?
幅広い実験において、ミニイメージネット、イメージネット、CUB-200ベンチマークでこれらの疑問に対する明確な答えを提供する。
また,基本データセットの設計は,単純なベースラインを最先端のartアルゴリズムに置き換えるよりも,少数ショット分類のパフォーマンスを劇的に改善できることを示す。
関連論文リスト
- Federated Learning Over Images: Vertical Decompositions and Pre-Trained
Backbones Are Difficult to Beat [17.30751773894676]
フェデレートされた環境で学習するアルゴリズムを多数評価する。
多様な画像の集合を持たないデータセットの学習が結果に影響を及ぼすかどうかを検討する。
ニューラルネットワークを垂直に分解することは、最良の結果をもたらすように思える。
論文 参考訳(メタデータ) (2023-09-06T02:09:14Z) - Mixture of Self-Supervised Learning [2.191505742658975]
自己教師型学習は、特定のタスクに適用される前にモデル上でトレーニングされるプレテキストタスクを使用することで機能する。
従来の研究では、プリテキストタスクとして1つのタイプの変換しか使用されていなかった。
これにより、複数のプリテキストタスクが使用されているかどうか、すべてのプリテキストタスクを組み合わせるためにゲーティングネットワークを使用するかどうか、という疑問が持ち上がる。
論文 参考訳(メタデータ) (2023-07-27T14:38:32Z) - Bi-directional Feature Reconstruction Network for Fine-Grained Few-Shot
Image Classification [61.411869453639845]
クラス間およびクラス内変動を同時に対応できるバイコンストラクション機構を導入する。
この設計は、モデルがより微妙で差別的な特徴を探索するのに役立つ。
広範に使用されている3つのきめ細かな画像分類データセットに対する実験結果は、一貫して大幅に改善されている。
論文 参考訳(メタデータ) (2022-11-30T16:55:14Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Revisiting Deep Local Descriptor for Improved Few-Shot Classification [56.74552164206737]
textbfDense textbfClassification と textbfAttentive textbfPooling を利用して埋め込みの質を向上させる方法を示す。
広範に使われているグローバル平均プール (GAP) の代わりに, 注意深いプールを施し, 特徴マップをプールすることを提案する。
論文 参考訳(メタデータ) (2021-03-30T00:48:28Z) - Learning to Focus: Cascaded Feature Matching Network for Few-shot Image
Recognition [38.49419948988415]
ディープネットワークは、多数の画像でトレーニングすることで、カテゴリのオブジェクトを正確に認識することを学ぶことができる。
低ショット画像認識タスク(low-shot image recognition task)として知られるメタラーニングの課題は、1つのカテゴリの認識モデルを学ぶためにアノテーション付き画像しか利用できない場合に発生する。
この問題を解決するため,Cascaded Feature Matching Network (CFMN) と呼ばれる手法を提案する。
EmphminiImageNet と Omniglot の2つの標準データセットを用いた数ショット学習実験により,本手法の有効性が確認された。
論文 参考訳(メタデータ) (2021-01-13T11:37:28Z) - Dataset Bias in Few-shot Image Recognition [57.25445414402398]
まず,基本カテゴリから学習した伝達可能能力の影響について検討する。
第2に、データセット構造と異なる少数ショット学習方法から、異なるデータセットのパフォーマンス差について検討する。
論文 参考訳(メタデータ) (2020-08-18T14:46:23Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z) - One-Shot Image Classification by Learning to Restore Prototypes [11.448423413463916]
ワンショット画像分類は、カテゴリ毎に1つの画像しか持たないデータセット上で、イメージ分類器を訓練することを目的としている。
ワンショット学習では、既存のメトリック学習アプローチは、単一のトレーニングイメージがクラスを代表するものではない可能性があるため、パフォーマンスが低下する。
本稿では,RestoreNet で表される単純な回帰モデルを提案する。画像特徴のクラス変換を学習し,特徴空間のクラス中心に画像を移動させる。
論文 参考訳(メタデータ) (2020-05-04T02:11:30Z) - Learning to Compare Relation: Semantic Alignment for Few-Shot Learning [48.463122399494175]
本稿では,コンテンツアライメントに頑健な関係を比較するための新しいセマンティックアライメントモデルを提案する。
数ショットの学習データセットについて広範な実験を行う。
論文 参考訳(メタデータ) (2020-02-29T08:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。