論文の概要: Few-Shot Learning for Image Classification of Common Flora
- arxiv url: http://arxiv.org/abs/2105.03056v1
- Date: Fri, 7 May 2021 03:54:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 19:53:55.571408
- Title: Few-Shot Learning for Image Classification of Common Flora
- Title(参考訳): コモンフローラ画像分類のためのFew-Shot Learning
- Authors: Joshua Ball
- Abstract要約: MAML(Model-Agnostic Meta Learning)を用いた画像分類のためのメタラーニング分野の最先端の研究と、さまざまな最先端のトランスファーラーニングウェイトとアーキテクチャをテストした結果を紹介します。
その結果、データセットが十分に大きい場合、両方のプラクティスが十分なパフォーマンスを提供しますが、十分なパフォーマンスを維持するためにデータスパーシャビリティが導入されると、どちらも苦労しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of meta-learning and transfer learning in the task of few-shot image
classification is a well researched area with many papers showcasing the
advantages of transfer learning over meta-learning in cases where data is
plentiful and there is no major limitations to computational resources. In this
paper we will showcase our experimental results from testing various
state-of-the-art transfer learning weights and architectures versus similar
state-of-the-art works in the meta-learning field for image classification
utilizing Model-Agnostic Meta Learning (MAML). Our results show that both
practices provide adequate performance when the dataset is sufficiently large,
but that they both also struggle when data sparsity is introduced to maintain
sufficient performance. This problem is moderately reduced with the use of
image augmentation and the fine-tuning of hyperparameters. In this paper we
will discuss: (1) our process of developing a robust multi-class convolutional
neural network (CNN) for the task of few-shot image classification, (2)
demonstrate that transfer learning is the superior method of helping create an
image classification model when the dataset is large and (3) that MAML
outperforms transfer learning in the case where data is very limited. The code
is available here: github.com/JBall1/Few-Shot-Limited-Data
- Abstract(参考訳): 画像分類におけるメタラーニングとトランスファーラーニングの利用は、データが豊富で計算資源に大きな制限がない場合にメタラーニングよりもトランスファーラーニングの利点を示す論文が多数ある、よく研究されている分野である。
本稿では,モデル非依存型メタラーニング(MAML)を用いた画像分類のためのメタラーニング分野における,様々な最先端のトランスファー学習重みとアーキテクチャの試験結果を紹介する。
以上の結果から,データセットが十分に大きい場合には両プラクティスが十分なパフォーマンスを提供するが,十分なパフォーマンスを維持するためにデータの疎結合が導入された場合には両プラクティスとも苦労することがわかった。
この問題は、画像強化とハイパーパラメータの微調整により、適度に減少する。
本稿では,(1)少数の画像分類を行うための頑健なマルチクラス畳み込みニューラルネットワーク(CNN)を開発するプロセス,(2)データセットが大きい場合に画像分類モデルを作成する上で,転送学習が優れた方法であることを実証すること,(3)データに制限がある場合に転送学習より優れていること,などを述べる。
github.com/JBall1/Few-Shot-Limited-Data
関連論文リスト
- Large-Scale Data-Free Knowledge Distillation for ImageNet via Multi-Resolution Data Generation [53.95204595640208]
Data-Free Knowledge Distillation (DFKD)は、教師モデルから生徒モデルへの知識伝達を可能にする高度な技術である。
従来のアプローチでは、実際の画像の情報を活用することなく、高解像度で合成画像を生成してきた。
MUSEは、クラスアクティベーションマップ(CAM)を使用して、低い解像度で画像を生成し、生成された画像が重要なクラス固有の特徴を保持することを保証する。
論文 参考訳(メタデータ) (2024-11-26T02:23:31Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Mixture of Self-Supervised Learning [2.191505742658975]
自己教師型学習は、特定のタスクに適用される前にモデル上でトレーニングされるプレテキストタスクを使用することで機能する。
従来の研究では、プリテキストタスクとして1つのタイプの変換しか使用されていなかった。
これにより、複数のプリテキストタスクが使用されているかどうか、すべてのプリテキストタスクを組み合わせるためにゲーティングネットワークを使用するかどうか、という疑問が持ち上がる。
論文 参考訳(メタデータ) (2023-07-27T14:38:32Z) - Many or Few Samples? Comparing Transfer, Contrastive and Meta-Learning
in Encrypted Traffic Classification [68.19713459228369]
我々は、トランスファーラーニング、メタラーニング、コントラストラーニングを、参照機械学習(ML)ツリーベースおよびモノリシックDLモデルと比較する。
i) 大規模なデータセットを用いて,より一般的な表現を得られること,(ii) コントラスト学習が最良の手法であることを示している。
MLツリーベースでは大きなタスクは処理できないが、学習した表現を再利用することで、小さなタスクにも適合するが、DLメソッドはツリーベースモデルのパフォーマンスにも到達している。
論文 参考訳(メタデータ) (2023-05-21T11:20:49Z) - Agricultural Plantation Classification using Transfer Learning Approach
based on CNN [0.0]
深層学習により高スペクトル画像認識の効率は著しく向上した。
CNNとMulti-Layer Perceptron(MLP)は画像の分類に優れたプロセスであることが示されている。
本稿では,移動学習の手法を用いて,学習時間を短縮し,ラベル付き大規模データセットへの依存を減らすことを提案する。
論文 参考訳(メタデータ) (2022-06-19T14:43:31Z) - Terrain Classification using Transfer Learning on Hyperspectral Images:
A Comparative study [0.13999481573773068]
畳み込みニューラルネットワーク(CNN)とMulti-Layer Perceptron(MLP)は画像分類の有効な方法であることが証明されている。
しかし、彼らは長いトレーニング時間と大量のラベル付きデータの要求の問題に悩まされている。
本稿では,移動学習法を用いてトレーニング時間を短縮し,大規模ラベル付きデータセットへの依存を減らすことを提案する。
論文 参考訳(メタデータ) (2022-06-19T14:36:33Z) - Deep transfer learning for image classification: a survey [4.590533239391236]
画像分類のベストプラクティスは、大量のラベル付きデータに基づいて大きな深層モデルをトレーニングできることである。
これらのシナリオでは、トランスファーラーニングはパフォーマンスを改善するのに役立つ。
画像分類におけるトランスファーラーニングの適用の新たな分類法を提案する。
論文 参考訳(メタデータ) (2022-05-20T00:03:39Z) - Memory Efficient Meta-Learning with Large Images [62.70515410249566]
数ショットの分類に対するメタ学習アプローチは、新しいタスクを学ぶために、ほんの数ステップの最適化やシングルフォワードパスを必要とするテスト時に計算的に効率的である。
この制限は、最大1000のイメージを含むタスクの全体サポートセットが、最適化ステップを取る前に処理されなければならないために生じる。
本稿では,1つのGPU上の大容量画像からなる大規模タスクのメタトレーニングを可能にする,汎用的でメモリ効率の良いエピソード・トレーニング手法であるLITEを提案する。
論文 参考訳(メタデータ) (2021-07-02T14:37:13Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z) - Multi-task pre-training of deep neural networks for digital pathology [8.74883469030132]
私たちはまず、多くのデジタル病理データセットを22の分類タスクと約900kの画像のプールに組み立て、変換しました。
特徴抽出器として使用されるモデルは、ImageNet事前訓練されたモデルよりも大幅に改善されるか、同等のパフォーマンスを提供するかを示す。
論文 参考訳(メタデータ) (2020-05-05T08:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。