論文の概要: Rare Wildlife Recognition with Self-Supervised Representation Learning
- arxiv url: http://arxiv.org/abs/2211.05636v1
- Date: Sat, 29 Oct 2022 17:57:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 23:36:27.869933
- Title: Rare Wildlife Recognition with Self-Supervised Representation Learning
- Title(参考訳): 自己教師付き表現学習による野生動物認識
- Authors: Xiaochen Zheng
- Abstract要約: 本稿では,自己指導型プレトレーニングに頼って,必要なトレーニングデータの量を削減する手法を提案する。
MoCo, CLD, および幾何拡張の組み合わせは, ImageNetで事前訓練された従来のモデルよりも大きなマージンで優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated animal censuses with aerial imagery are a vital ingredient towards
wildlife conservation. Recent models are generally based on supervised learning
and thus require vast amounts of training data. Due to their scarcity and
minuscule size, annotating animals in aerial imagery is a highly tedious
process. In this project, we present a methodology to reduce the amount of
required training data by resorting to self-supervised pretraining. In detail,
we examine a combination of recent contrastive learning methodologies like
Momentum Contrast (MoCo) and Cross-Level Instance-Group Discrimination (CLD) to
condition our model on the aerial images without the requirement for labels. We
show that a combination of MoCo, CLD, and geometric augmentations outperforms
conventional models pretrained on ImageNet by a large margin. Meanwhile,
strategies for smoothing label or prediction distribution in supervised
learning have been proven useful in preventing the model from overfitting. We
combine the self-supervised contrastive models with image mixup strategies and
find that it is useful for learning more robust visual representations.
Crucially, our methods still yield favorable results even if we reduce the
number of training animals to just 10%, at which point our best model scores
double the recall of the baseline at similar precision. This effectively allows
reducing the number of required annotations to a fraction while still being
able to train high-accuracy models in such highly challenging settings.
- Abstract(参考訳): 航空画像による動物の自動国勢調査は野生生物保護にとって重要な要素である。
最近のモデルは一般に教師付き学習に基づいており、大量のトレーニングデータを必要とする。
その希少さと極小さのため、空中画像中の動物に注釈をつけることは非常に面倒なプロセスである。
本稿では,自己指導型事前学習に頼って,必要なトレーニングデータの量を削減する手法を提案する。
具体的には,モメンタムコントラスト (moco) やクロスレベルインスタンスグループ識別 (cld) といった近年のコントラスト学習手法を組み合わせて,ラベルを必要とせず,航空画像にモデルを条件付けする手法について検討した。
MoCo, CLD, および幾何拡張の組み合わせは, ImageNetで事前訓練された従来のモデルよりも大きなマージンで優れていることを示す。
一方、教師付き学習におけるラベルや予測分布の平滑化戦略は、モデルが過度に適合することを防ぐのに有用であることが証明されている。
自己教師付きコントラストモデルと画像混合戦略を組み合わせることで、より堅牢な視覚表現の学習に有用であることが分かる。
重要な点は、トレーニング動物の数を10%に減らしても、私たちの手法はそれでも良い結果をもたらし、その時点で最高のモデルスコアは、同じ精度でベースラインのリコールの2倍になります。
これにより、非常に困難な設定で精度の高いモデルをトレーニングしながら、必要なアノテーションの数を分数に減らすことができる。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Pre-Trained Vision-Language Models as Partial Annotators [40.89255396643592]
事前学習された視覚言語モデルは、画像と自然言語の統一表現をモデル化するために大量のデータを学習する。
本稿では,事前学習型モデルアプリケーションのための「事前学習型-弱教師付き学習」パラダイムについて検討し,画像分類タスクの実験を行う。
論文 参考訳(メタデータ) (2024-05-23T17:17:27Z) - EfficientTrain++: Generalized Curriculum Learning for Efficient Visual Backbone Training [79.96741042766524]
訓練カリキュラムをソフトセレクション機能として再構築する。
自然画像の内容の露光は,データ拡張の強度によって容易に達成できることを示す。
結果のメソッドであるEfficientTrain++は単純で汎用的だが驚くほど効果的である。
論文 参考訳(メタデータ) (2024-05-14T17:00:43Z) - No Data Augmentation? Alternative Regularizations for Effective Training
on Small Datasets [0.0]
我々は、小さな画像分類データセットにおける教師あり学習の限界を推し進めるために、代替正規化戦略について研究する。
特に,モデルパラメータのノルムを通した最適学習率と重み減衰対の選択に非依存を用いる。
テスト精度は66.5%に達し、最先端の手法に匹敵する。
論文 参考訳(メタデータ) (2023-09-04T16:13:59Z) - Bag of Tricks for Long-Tail Visual Recognition of Animal Species in
Camera Trap Images [2.294014185517203]
近年,カメラトラップ画像における動物種の長期的視覚認識に対処する手法が提案されている。
一般に、平方根サンプリングは、マイノリティクラスの性能を約10%向上させる方法であった。
提案手法は, テール級の性能と, ヘッド級の精度との最良のトレードオフを達成した。
論文 参考訳(メタデータ) (2022-06-24T18:30:26Z) - Self-Supervised Pretraining and Controlled Augmentation Improve Rare
Wildlife Recognition in UAV Images [9.220908533011068]
本稿では,自己指導型プレトレーニングに頼って,必要なトレーニングデータの量を削減する手法を提案する。
MoCo, CLD, および幾何拡張の組み合わせは, ImageNet 上で事前学習された従来のモデルよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2021-08-17T12:14:28Z) - Zoo-Tuning: Adaptive Transfer from a Zoo of Models [82.9120546160422]
Zoo-Tuningは、事前訓練されたモデルのパラメータをターゲットタスクに適応的に転送することを学ぶ。
我々は、強化学習、画像分類、顔のランドマーク検出など、様々なタスクに対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-06-29T14:09:45Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Deep learning with self-supervision and uncertainty regularization to
count fish in underwater images [28.261323753321328]
効果的な保全活動には、効果的な人口監視が必要です。
画像サンプリングによる人口のモニタリングにより、データ収集は安価で広く、侵入性が低くなっている。
このようなデータから動物を数えることは、特に騒々しい画像に密に詰め込まれた場合、困難です。
深層学習は多くのコンピュータビジョンタスクの最先端の手法であるが、動物を数えるためにはまだ十分に研究されていない。
論文 参考訳(メタデータ) (2021-04-30T13:02:19Z) - More Photos are All You Need: Semi-Supervised Learning for Fine-Grained
Sketch Based Image Retrieval [112.1756171062067]
クロスモーダル検索のための新しい半監視フレームワークについて紹介する。
私たちの設計の中心には、連続したフォトツースケッチ生成モデルがあります。
また,不適切な生成を誘導する判別器誘導機構も導入する。
論文 参考訳(メタデータ) (2021-03-25T17:27:08Z) - Deep Low-Shot Learning for Biological Image Classification and
Visualization from Limited Training Samples [52.549928980694695]
In situ hybridization (ISH) gene expression pattern image from the same developmental stage。
正確な段階のトレーニングデータをラベル付けするのは、生物学者にとっても非常に時間がかかる。
限られた訓練画像を用いてISH画像を正確に分類する2段階の低ショット学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T06:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。