論文の概要: Comparing Male Nyala and Male Kudu Classification using Transfer
Learning with ResNet-50 and VGG-16
- arxiv url: http://arxiv.org/abs/2311.05981v1
- Date: Fri, 10 Nov 2023 10:43:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 15:16:08.389576
- Title: Comparing Male Nyala and Male Kudu Classification using Transfer
Learning with ResNet-50 and VGG-16
- Title(参考訳): ResNet-50 と VGG-16 を用いた転帰学習による雄のNyala と雄の Kudu 分類の比較
- Authors: T.T Lemani and T.L. van Zyl
- Abstract要約: 本稿では,プレトレーニングモデル,特にVGG-16およびResNet-50モデルの自然環境におけるオスのクドゥとオスのニヤラの同定における効率について検討する。
実験結果はVGG-16とResNet-50でそれぞれ93.2%と97.7%の精度を達成し、微調整後に両モデルで97.7%を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Reliable and efficient monitoring of wild animals is crucial to inform
management and conservation decisions. The process of manually identifying
species of animals is time-consuming, monotonous, and expensive. Leveraging on
advances in deep learning and computer vision, we investigate in this paper the
efficiency of pre-trained models, specifically the VGG-16 and ResNet-50 model,
in identifying a male Kudu and a male Nyala in their natural habitats. These
pre-trained models have proven to be efficient in animal identification in
general. Still, there is little research on animals like the Kudu and Nyala,
who are usually well camouflaged and have similar features. The method of
transfer learning used in this paper is the fine-tuning method. The models are
evaluated before and after fine-tuning. The experimental results achieved an
accuracy of 93.2\% and 97.7\% for the VGG-16 and ResNet-50 models,
respectively, before fine-tuning and 97.7\% for both models after fine-tuning.
Although these results are impressive, it should be noted that they were taken
over a small sample size of 550 images split in half between the two classes;
therefore, this might not cater to enough scenarios to get a full conclusion of
the efficiency of the models. Therefore, there is room for more work in getting
a more extensive dataset and testing and extending to the female counterparts
of these species and the whole antelope species.
- Abstract(参考訳): 野生動物の信頼性と効率的なモニタリングは、管理と保全の決定を知らせる上で重要である。
動物種を手動で識別するプロセスは、時間がかかり、単調で高価である。
本稿では, 深層学習とコンピュータビジョンの進歩を活かし, vgg-16モデルとresnet-50モデルを用いて, 自然環境における雄クドゥと雄ナイアラの同定を行った。
これらの事前訓練されたモデルは、一般に動物同定において効率的であることが証明されている。
それでも、クドゥやニャラのような動物についての研究はほとんどなく、彼らは通常よくカモフラージュされ、類似した特徴を持っている。
本論文で使用する転送学習の方法は,微調整法である。
モデルは微調整前後で評価される。
実験結果は,vgg-16モデルとresnet-50モデルでそれぞれ93.2\%,97.7\%の精度を,微調整後に97.7\%の精度で達成した。
これらの結果は印象的ではあるが、550枚の画像の小さなサンプルサイズを2つのクラスの間に半分に分割したものであり、モデルの有効性の完全な結論を得るのに十分なシナリオにはならないかもしれないことに注意する必要がある。
そのため、より広範なデータセットを取得してテストし、これらの種の雌とアンテロープ種全体に拡張する余地がある。
関連論文リスト
- Transfer Learning for Wildlife Classification: Evaluating YOLOv8 against DenseNet, ResNet, and VGGNet on a Custom Dataset [0.0]
この研究は、データセット上で事前学習されたモデルを微調整するために転送学習を利用する。
YOLOv8は他のモデルより優れており、トレーニング精度97.39%、バリデーションF1スコア96.50%である。
論文 参考訳(メタデータ) (2024-07-10T15:03:00Z) - Cattle Identification Using Muzzle Images and Deep Learning Techniques [0.0]
本研究は、268頭の牛肉から採取した4923個の銃口画像を用いて牛の識別を探索する。
実験の結果、ResNet50モデルを使用して99.5%の最大精度が達成された。
論文 参考訳(メタデータ) (2023-11-14T13:25:41Z) - General vs. Long-Tailed Age Estimation: An Approach to Kill Two Birds
with One Stone [48.849311629912734]
本稿では, GLAE という, シンプルで効果的で柔軟な訓練パラダイムを提案する。
私たちのGLAEはMorph IIを驚くほど改善し、それぞれ1.14年と1.27年で最低のMAEとCMAEに達した。
論文 参考訳(メタデータ) (2023-07-19T16:51:59Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - LIMA: Less Is More for Alignment [112.93890201395477]
65B パラメータ LLaMa 言語モデル LIMA のトレーニングを行う。
LIMAは、非常に強力なパフォーマンスを示し、少数の例から特定のレスポンスフォーマットに従うことを学ぶ。
制御されたヒトの研究では、LIMAからの反応は43%の症例において、GPT-4に等しいか、厳格に好まれる。
論文 参考訳(メタデータ) (2023-05-18T17:45:22Z) - Rare Wildlife Recognition with Self-Supervised Representation Learning [0.0]
本稿では,自己指導型プレトレーニングに頼って,必要なトレーニングデータの量を削減する手法を提案する。
MoCo, CLD, および幾何拡張の組み合わせは, ImageNetで事前訓練された従来のモデルよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2022-10-29T17:57:38Z) - Bag of Tricks for Long-Tail Visual Recognition of Animal Species in
Camera Trap Images [2.294014185517203]
近年,カメラトラップ画像における動物種の長期的視覚認識に対処する手法が提案されている。
一般に、平方根サンプリングは、マイノリティクラスの性能を約10%向上させる方法であった。
提案手法は, テール級の性能と, ヘッド級の精度との最良のトレードオフを達成した。
論文 参考訳(メタデータ) (2022-06-24T18:30:26Z) - Ensembling Off-the-shelf Models for GAN Training [55.34705213104182]
事前学習されたコンピュータビジョンモデルは、識別器のアンサンブルで使用する場合、性能を著しく向上させることができる。
本研究では,事前学習したモデル埋め込みにおける実検体と偽検体間の線形分離性を検証し,効率的な選択機構を提案する。
本手法は, 限られたデータと大規模設定の両方において, GAN トレーニングを改善することができる。
論文 参考訳(メタデータ) (2021-12-16T18:59:50Z) - AP-10K: A Benchmark for Animal Pose Estimation in the Wild [83.17759850662826]
一般的な動物のポーズ推定のための,最初の大規模ベンチマークであるAP-10Kを提案する。
AP-10Kは動物23種と60種から収集・濾過された10,015枚からなる。
その結果、様々な動物種からの学習の精度と一般化能力の両面での優位性に関する実験的な証拠が得られた。
論文 参考訳(メタデータ) (2021-08-28T10:23:34Z) - Self-Supervised Pretraining and Controlled Augmentation Improve Rare
Wildlife Recognition in UAV Images [9.220908533011068]
本稿では,自己指導型プレトレーニングに頼って,必要なトレーニングデータの量を削減する手法を提案する。
MoCo, CLD, および幾何拡張の組み合わせは, ImageNet 上で事前学習された従来のモデルよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2021-08-17T12:14:28Z) - Zoo-Tuning: Adaptive Transfer from a Zoo of Models [82.9120546160422]
Zoo-Tuningは、事前訓練されたモデルのパラメータをターゲットタスクに適応的に転送することを学ぶ。
我々は、強化学習、画像分類、顔のランドマーク検出など、様々なタスクに対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-06-29T14:09:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。