論文の概要: Evaluation of deep learning architectures for wildlife object detection: A comparative study of ResNet and Inception
- arxiv url: http://arxiv.org/abs/2512.15480v1
- Date: Wed, 17 Dec 2025 14:30:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.024669
- Title: Evaluation of deep learning architectures for wildlife object detection: A comparative study of ResNet and Inception
- Title(参考訳): 野生生物検出のためのディープラーニングアーキテクチャの評価:ResNetとインセプションの比較研究
- Authors: Malach Obisa Amonga, Benard Osero, Edna Too,
- Abstract要約: 本研究では,野生生物検出におけるResNet-101とInception v3の2つの個別ディープラーニングアーキテクチャの有効性について検討した。
モデルは、標準化された前処理アプローチを用いて野生生物の画像データセットで訓練され、評価された。
ResNet-101モデルでは、分類精度は94%、平均精度は0.91で、階層的な特徴を抽出する上で高い性能を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Wildlife object detection plays a vital role in biodiversity conservation, ecological monitoring, and habitat protection. However, this task is often challenged by environmental variability, visual similarities among species, and intra-class diversity. This study investigates the effectiveness of two individual deep learning architectures ResNet-101 and Inception v3 for wildlife object detection under such complex conditions. The models were trained and evaluated on a wildlife image dataset using a standardized preprocessing approach, which included resizing images to a maximum dimension of 800 pixels, converting them to RGB format, and transforming them into PyTorch tensors. A ratio of 70:30 training and validation split was used for model development. The ResNet-101 model achieved a classification accuracy of 94% and a mean Average Precision (mAP) of 0.91, showing strong performance in extracting deep hierarchical features. The Inception v3 model performed slightly better, attaining a classification accuracy of 95% and a mAP of 0.92, attributed to its efficient multi-scale feature extraction through parallel convolutions. Despite the strong results, both models exhibited challenges when detecting species with similar visual characteristics or those captured under poor lighting and occlusion. Nonetheless, the findings confirm that both ResNet-101 and Inception v3 are effective models for wildlife object detection tasks and provide a reliable foundation for conservation-focused computer vision applications.
- Abstract(参考訳): 野生生物の物体検出は、生物多様性の保全、生態モニタリング、生息環境保護において重要な役割を担っている。
しかし、この課題は環境変動性、種間の視覚的類似性、およびクラス内多様性によってしばしば挑戦される。
本研究では,複雑な環境下での野生生物検出におけるResNet-101とInception v3の2つの個別ディープラーニングアーキテクチャの有効性について検討した。
モデルのトレーニングと評価には、標準化された前処理アプローチを使用して、イメージを800ピクセルの最大サイズに縮小し、RGBフォーマットに変換し、それらをPyTorchテンソルに変換するという、野生生物の画像データセットを使用した。
70:30のトレーニングと検証スプリットの比率がモデル開発に使用された。
ResNet-101モデルでは、分類精度は94%、平均精度は0.91で、階層的な特徴を抽出する上で高い性能を示した。
Inception v3モデルは、95%の分類精度と0.92のmAPを達成し、並列畳み込みによる効率的なマルチスケール特徴抽出に寄与した。
強い結果にもかかわらず、どちらのモデルも、類似した視覚特性を持つ種や、照明や閉塞下で捕獲された種を検知する際の課題を示した。
それにもかかわらず、ResNet-101とInception v3の両方が野生生物のオブジェクト検出タスクに有効なモデルであり、保護に焦点を当てたコンピュータビジョンアプリケーションのための信頼性の高い基盤であることを確認した。
関連論文リスト
- Pose Matters: Evaluating Vision Transformers and CNNs for Human Action Recognition on Small COCO Subsets [0.0]
本研究では,COCO画像コーパスの3クラスサブセットを用いた人間の認識について検討する。
バイナリビジョン変換器(ViT)は90%の平均テスト精度を達成した。
論文 参考訳(メタデータ) (2025-06-13T11:16:50Z) - Multimodal Feature-Driven Deep Learning for the Prediction of Duck Body Dimensions and Weight [12.125067563652257]
本研究では、異なるビュー、深度画像、および3D点雲からのマルチモーダルデータ2D RGB画像を活用する革新的な深層学習モデルを提案する。
姿勢や条件の異なる5,000以上のサンプルからなる1,023羽のLinwuアヒルのデータセットを収集し、モデルトレーニングを支援した。
このモデルは平均絶対パーセンテージ誤差(MAPE)が6.33%、R2が0.953で8つの形態パラメータで達成され、強い予測能力を示した。
論文 参考訳(メタデータ) (2025-03-18T08:09:19Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [81.93945602120453]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - PoseBench: Benchmarking the Robustness of Pose Estimation Models under Corruptions [57.871692507044344]
ポース推定は、単眼画像を用いて人や動物の解剖学的キーポイントを正確に同定することを目的としている。
現在のモデルは一般的に、クリーンなデータに基づいてトレーニングされ、テストされる。
実世界の腐敗に対するポーズ推定モデルの堅牢性を評価するためのベンチマークであるPoseBenchを紹介する。
論文 参考訳(メタデータ) (2024-06-20T14:40:17Z) - OOD-CV-v2: An extended Benchmark for Robustness to Out-of-Distribution
Shifts of Individual Nuisances in Natural Images [59.51657161097337]
OOD-CV-v2は、ポーズ、形状、テクスチャ、コンテキスト、気象条件の10のオブジェクトカテゴリのアウト・オブ・ディストリビューションの例を含むベンチマークデータセットである。
この新たなデータセットに加えて、一般的なベースライン手法を用いた広範な実験にも貢献する。
論文 参考訳(メタデータ) (2023-04-17T20:39:25Z) - Stacking Ensemble Learning in Deep Domain Adaptation for Ophthalmic
Image Classification [61.656149405657246]
ドメイン適応は、十分なラベルデータを取得することが困難な画像分類タスクに有効である。
本稿では,3つのドメイン適応手法を拡張することで,アンサンブル学習を積み重ねるための新しい手法SELDAを提案する。
Age-Related Eye Disease Study (AREDS)ベンチマーク眼科データセットを用いた実験結果から,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2022-09-27T14:19:00Z) - Modeling Object Dissimilarity for Deep Saliency Prediction [86.14710352178967]
本稿では,複数の物体間の差分をモデル化する検出誘導サリエンシー予測ネットワークについて紹介する。
私たちのアプローチは一般的であり、深いサリエンシー予測ネットワークから抽出された特徴とオブジェクトの不類似性を融合させることができます。
論文 参考訳(メタデータ) (2021-04-08T16:10:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。