論文の概要: How many images do I need? Understanding how sample size per class
affects deep learning model performance metrics for balanced designs in
autonomous wildlife monitoring
- arxiv url: http://arxiv.org/abs/2010.08186v1
- Date: Fri, 16 Oct 2020 06:28:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 20:04:47.564876
- Title: How many images do I need? Understanding how sample size per class
affects deep learning model performance metrics for balanced designs in
autonomous wildlife monitoring
- Title(参考訳): 何枚の画像が必要ですか?
クラスごとのサンプルサイズが自律野生生物モニタリングにおけるバランス設計のためのディープラーニングモデルパフォーマンス指標に与える影響を理解する
- Authors: Saleh Shahinfar, Paul Meek, Greg Falzon
- Abstract要約: 本研究では,各クラス(種目)のサンプルサイズを段階的に増加させるために,ディープラーニングモデルの性能に関する課題を深く検討する。
我々は,動物種毎の画像の精度を推定するための近似式を生態学者に提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) algorithms are the state of the art in automated
classification of wildlife camera trap images. The challenge is that the
ecologist cannot know in advance how many images per species they need to
collect for model training in order to achieve their desired classification
accuracy. In fact there is limited empirical evidence in the context of camera
trapping to demonstrate that increasing sample size will lead to improved
accuracy. In this study we explore in depth the issues of deep learning model
performance for progressively increasing per class (species) sample sizes. We
also provide ecologists with an approximation formula to estimate how many
images per animal species they need for certain accuracy level a priori. This
will help ecologists for optimal allocation of resources, work and efficient
study design. In order to investigate the effect of number of training images;
seven training sets with 10, 20, 50, 150, 500, 1000 images per class were
designed. Six deep learning architectures namely ResNet-18, ResNet-50,
ResNet-152, DnsNet-121, DnsNet-161, and DnsNet-201 were trained and tested on a
common exclusive testing set of 250 images per class. The whole experiment was
repeated on three similar datasets from Australia, Africa and North America and
the results were compared. Simple regression equations for use by practitioners
to approximate model performance metrics are provided. Generalized additive
models (GAM) are shown to be effective in modelling DL performance metrics
based on the number of training images per class, tuning scheme and dataset.
Key-words: Camera Traps, Deep Learning, Ecological Informatics, Generalised
Additive Models, Learning Curves, Predictive Modelling, Wildlife.
- Abstract(参考訳): Deep Learning (DL)アルゴリズムは、野生動物のカメラトラップ画像の自動分類における最先端技術である。
課題は、生態学者は、望ましい分類精度を達成するために、モデルトレーニングのために収集する種ごとの画像数を事前に知ることができないことである。
実際、カメラトラップの文脈では、サンプルサイズの増加によって精度が向上することを示す実験的な証拠が限られている。
本研究では,種別(種別)のサンプルサイズを漸進的に増加させる深層学習モデルの性能問題について詳細に検討する。
また,特定の精度レベルを優先する動物種毎のイメージ数を推定するための近似式を生態学者に提供する。
これにより、生態学者は資源の最適配分、作業、効率的な研究設計に役立つ。
10,20,50,150,500,1000枚のトレーニングセットを1クラス毎に設計した。
ResNet-18、ResNet-50、ResNet-152、DnsNet-121、DnsNet-161、DnsNet-201という6つのディープラーニングアーキテクチャがトレーニングされ、クラス毎に250イメージの共通テストセットでテストされた。
実験はオーストラリア、アフリカ、北アメリカの3つの同様のデータセットで繰り返され、結果が比較された。
モデル性能指標を近似するために実践者が使用する簡単な回帰方程式を提供する。
一般化付加モデル(GAM)は,クラス毎のトレーニング画像数,チューニングスキーム,データセットに基づいて,DLパフォーマンス指標のモデル化に有効であることが示されている。
キーワード:カメラトラップ、ディープラーニング、生態情報学、一般化付加モデル、学習曲線、予測モデル、野生生物。
関連論文リスト
- Self-Supervised Learning in Deep Networks: A Pathway to Robust Few-Shot Classification [0.0]
まず、ラベルのない大量のデータから共通特徴表現を学習できるように、自己スーパービジョンでモデルを事前訓練する。
その後、数ショットのデータセットMini-ImageNetで微調整を行い、限られたデータの下でモデルの精度と一般化能力を改善する。
論文 参考訳(メタデータ) (2024-11-19T01:01:56Z) - Pushing Boundaries: Exploring Zero Shot Object Classification with Large
Multimodal Models [0.09264362806173355]
LLVA(Large Language and Vision Assistant Model)は、画像ベースのクエリと連動したリッチな会話体験をユーザに提供するモデルである。
本稿では,LMMについて一意に考察し,画像分類タスクの適応性について検討する。
我々の研究では、MNIST、Cats Vs. Dogs、Hymnoptera(Ants Vs. Bees)、Pox Vs. Non-Poxの皮膚画像からなる非伝統的なデータセットの4つの多様なデータセットのベンチマーク分析を含む。
論文 参考訳(メタデータ) (2023-12-30T03:19:54Z) - Delving Deeper into Data Scaling in Masked Image Modeling [145.36501330782357]
視覚認識のためのマスク付き画像モデリング(MIM)手法のスケーリング能力に関する実証的研究を行った。
具体的には、Webで収集したCoyo-700Mデータセットを利用する。
我々のゴールは、データとモデルのサイズの異なるスケールでダウンストリームタスクのパフォーマンスがどのように変化するかを調べることです。
論文 参考訳(メタデータ) (2023-05-24T15:33:46Z) - The effectiveness of MAE pre-pretraining for billion-scale pretraining [65.98338857597935]
モデルの初期化には自己教師付きMAE技術を用いる。
画像分類, 映像認識, 物体検出, ローショット分類, ゼロショット認識にまたがる10種類の視覚的タスクに対して, 事前学習の有効性を評価する。
論文 参考訳(メタデータ) (2023-03-23T17:56:12Z) - Facilitated machine learning for image-based fruit quality assessment in
developing countries [68.8204255655161]
自動画像分類は食品科学における教師あり機械学習の一般的な課題である。
事前学習型視覚変換器(ViT)に基づく代替手法を提案する。
標準的なデバイス上で限られたリソースで簡単に実装できる。
論文 参考訳(メタデータ) (2022-07-10T19:52:20Z) - KNN-Diffusion: Image Generation via Large-Scale Retrieval [40.6656651653888]
適応する学習は、いくつかの新しい機能を可能にします。
微調整の訓練されたモデルと新しいサンプルは、単にテーブルに追加するだけで実現できる。
我々の拡散モデルでは、共同のテキスト・イメージ・マルチモーダル・メトリックを利用することで、画像のみを訓練する。
論文 参考訳(メタデータ) (2022-04-06T14:13:35Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Deep Low-Shot Learning for Biological Image Classification and
Visualization from Limited Training Samples [52.549928980694695]
In situ hybridization (ISH) gene expression pattern image from the same developmental stage。
正確な段階のトレーニングデータをラベル付けするのは、生物学者にとっても非常に時間がかかる。
限られた訓練画像を用いてISH画像を正確に分類する2段階の低ショット学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T06:06:06Z) - Background Splitting: Finding Rare Classes in a Sea of Background [55.03789745276442]
我々は,少数の稀なカテゴリの画像分類のための,高精度な深層モデルの訓練という現実的な問題に焦点をあてる。
これらのシナリオでは、ほとんどの画像はデータセットの背景カテゴリに属します(データセットの95%は背景です)。
非バランスなデータセットをトレーニングするための標準的な微調整アプローチと最先端アプローチの両方が、この極端な不均衡の存在下で正確な深層モデルを生成していないことを実証する。
論文 参考訳(メタデータ) (2020-08-28T23:05:15Z) - Multi-task pre-training of deep neural networks for digital pathology [8.74883469030132]
私たちはまず、多くのデジタル病理データセットを22の分類タスクと約900kの画像のプールに組み立て、変換しました。
特徴抽出器として使用されるモデルは、ImageNet事前訓練されたモデルよりも大幅に改善されるか、同等のパフォーマンスを提供するかを示す。
論文 参考訳(メタデータ) (2020-05-05T08:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。