論文の概要: Two-phase training mitigates class imbalance for camera trap image
classification with CNNs
- arxiv url: http://arxiv.org/abs/2112.14491v1
- Date: Wed, 29 Dec 2021 10:47:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 18:56:53.000490
- Title: Two-phase training mitigates class imbalance for camera trap image
classification with CNNs
- Title(参考訳): CNNを用いたカメラトラップ画像分類のための二相訓練によるクラス不均衡軽減
- Authors: Farjad Malik, Simon Wouters, Ruben Cartuyvels, Erfan Ghadery,
Marie-Francine Moens
- Abstract要約: マイノリティクラスのパフォーマンス向上には2段階のトレーニングを使用します。
多数決アンサンプに基づく2段階トレーニングでは,クラス固有のF1スコアが最大3.0%増加することがわかった。
また,F1スコアの平均値が6.1%のオーバーサンプリングやアンダーサンプリングのみを用いた2相トレーニングでは,2相トレーニングが優れていた。
- 参考スコア(独自算出の注目度): 17.905795249216805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: By leveraging deep learning to automatically classify camera trap images,
ecologists can monitor biodiversity conservation efforts and the effects of
climate change on ecosystems more efficiently. Due to the imbalanced
class-distribution of camera trap datasets, current models are biased towards
the majority classes. As a result, they obtain good performance for a few
majority classes but poor performance for many minority classes. We used
two-phase training to increase the performance for these minority classes. We
trained, next to a baseline model, four models that implemented a different
versions of two-phase training on a subset of the highly imbalanced Snapshot
Serengeti dataset. Our results suggest that two-phase training can improve
performance for many minority classes, with limited loss in performance for the
other classes. We find that two-phase training based on majority undersampling
increases class-specific F1-scores up to 3.0%. We also find that two-phase
training outperforms using only oversampling or undersampling by 6.1% in
F1-score on average. Finally, we find that a combination of over- and
undersampling leads to a better performance than using them individually.
- Abstract(参考訳): ディープラーニングを利用して自動的にカメラトラップ画像を分類することで、生態学者は生態系に対する生物多様性の保全と気候変動の影響をより効率的に監視することができる。
カメラトラップデータセットの不均衡なクラス分布のため、現在のモデルは多数派に偏っている。
その結果、少数のクラスでは良いパフォーマンスを得たが、多くのマイノリティクラスではパフォーマンスが低かった。
マイノリティクラスのパフォーマンス向上のため,2段階のトレーニングを行った。
ベースラインモデルの横に,高度に不均衡なスナップショットであるserengetiデータセットのサブセット上で,異なるバージョンの2相トレーニングを実装した4つのモデルをトレーニングした。
以上の結果から,2段階学習は少数クラスの性能向上に寄与し,他クラスのパフォーマンス低下を抑えることが示唆された。
多数決アンサンプに基づく2段階トレーニングはクラス固有のF1スコアを最大3.0%増加させる。
また,f1-scoreでは,オーバーサンプリングやアンダーサンプリングのみを用いた2相トレーニングの方が平均6.1%高い値を示した。
最後に、オーバーサンプリングとアンダーサンプリングの組み合わせは、個別に使用するよりも優れたパフォーマンスをもたらすことが分かりました。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - FSL-Rectifier: Rectify Outliers in Few-Shot Learning via Test-Time Augmentation [7.477118370563593]
FSL(Few-shot-learning)は通常、トレーニング中に目に見えないクラスに属する画像(クエリ)を識別するモデルを必要とする。
生成画像コンバインダを用いて、原サンプルと適切な列車クラスサンプルを組み合わせることで、追加のテストクラスサンプルを生成する。
我々は、平均化によってより典型的な表現をもたらす拡張子を介して平均化された特徴を得る。
論文 参考訳(メタデータ) (2024-02-28T12:37:30Z) - Bag of Tricks for Long-Tail Visual Recognition of Animal Species in
Camera Trap Images [2.294014185517203]
近年,カメラトラップ画像における動物種の長期的視覚認識に対処する手法が提案されている。
一般に、平方根サンプリングは、マイノリティクラスの性能を約10%向上させる方法であった。
提案手法は, テール級の性能と, ヘッド級の精度との最良のトレードオフを達成した。
論文 参考訳(メタデータ) (2022-06-24T18:30:26Z) - GDC- Generalized Distribution Calibration for Few-Shot Learning [5.076419064097734]
大規模なラベル付きデータセットを組み立てるのにかなりの時間と労力を要するため、機械学習において重要な問題となるショットラーニングはほとんどない。
ほとんどの少数ショット学習アルゴリズムは、2つの制限の1つに悩まされている。
そこで本研究では,全大クラスの重み付きランダム変数として分類する際,少数ショット分布を推定する一般サンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-04-11T16:22:53Z) - Mimicking the Oracle: An Initial Phase Decorrelation Approach for Class Incremental Learning [141.35105358670316]
本研究では,Na"訓練初期相モデルとオラクルモデルとの相違について検討する。
より均一に散らばるように,各クラスの表現を効果的に正規化するクラスワイド・デコレーション(CwD)を提案する。
私たちのCwDは実装が簡単で、既存のメソッドに簡単にプラグインできます。
論文 参考訳(メタデータ) (2021-12-09T07:20:32Z) - Sparse MoEs meet Efficient Ensembles [49.313497379189315]
このようなモデルの2つの一般的なクラス、すなわちニューラルネットワークのアンサンブルと専門家のスパースミックス(スパースMoE)の相互作用について研究する。
Efficient Ensemble of Experts (E$3$)は、両モデルのクラスを最大限に活用するスケーラブルでシンプルなMoEのアンサンブルであり、深いアンサンブルよりも最大45%少ないFLOPを使用する。
論文 参考訳(メタデータ) (2021-10-07T11:58:35Z) - eGAN: Unsupervised approach to class imbalance using transfer learning [8.100450025624443]
クラス不均衡は、多くの機械学習分類タスクに固有の問題である。
予め訓練された画像分類モデルからエンコーダベースのGenerative Adversarial Network(eGAN)への転送学習を活用することにより、これらの不均衡に対処するための監督されていないアプローチを検討する。
CIFAR-10分類タスクにおいて0.69 F1-scoreの結果が1:2500の不均衡比で得られた。
論文 参考訳(メタデータ) (2021-04-09T02:37:55Z) - Learning to Fairly Classify the Quality of Wireless Links [0.5352699766206808]
本稿では,高性能な木質リンク品質分類器を提案し,マイノリティクラスを公平に分類する。
選択された不均衡データセット上で,木モデルとMLP非線形モデルと2つの線形モデル,すなわちロジスティック回帰(LR)とSVMを比較した。
本研究は,(1)非線形モデルが一般に線形モデルよりも若干優れていること,2)提案する非線形木ベースモデルが,f1,トレーニング時間,公平性を考慮した最高のパフォーマンストレードオフをもたらすこと,3)正確性のみに基づく単一メトリクス集約評価が貧弱であることを示す。
論文 参考訳(メタデータ) (2021-02-23T12:23:27Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Background Splitting: Finding Rare Classes in a Sea of Background [55.03789745276442]
我々は,少数の稀なカテゴリの画像分類のための,高精度な深層モデルの訓練という現実的な問題に焦点をあてる。
これらのシナリオでは、ほとんどの画像はデータセットの背景カテゴリに属します(データセットの95%は背景です)。
非バランスなデータセットをトレーニングするための標準的な微調整アプローチと最先端アプローチの両方が、この極端な不均衡の存在下で正確な深層モデルを生成していないことを実証する。
論文 参考訳(メタデータ) (2020-08-28T23:05:15Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。