論文の概要: Weakly supervised framework for wildlife detection and counting in challenging Arctic environments: a case study on caribou (Rangifer tarandus)
- arxiv url: http://arxiv.org/abs/2601.18891v2
- Date: Wed, 28 Jan 2026 18:12:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.577086
- Title: Weakly supervised framework for wildlife detection and counting in challenging Arctic environments: a case study on caribou (Rangifer tarandus)
- Title(参考訳): 北極圏環境における野生生物の検出と数え方に関する弱監督的枠組み--カリブー(Rangifer tarandus)を事例として
- Authors: Ghazaleh Serati, Samuel Foucher, Jerome Theau,
- Abstract要約: 本稿では,検出ネットワークのアーキテクチャに基づく,弱教師付きパッチレベルの事前トレーニングを提案する。
このデータセットには、アラスカに分布する5つのカリブー群れが含まれている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Caribou across the Arctic has declined in recent decades, motivating scalable and accurate monitoring approaches to guide evidence-based conservation actions and policy decisions. Manual interpretation from this imagery is labor-intensive and error-prone, underscoring the need for automatic and reliable detection across varying scenes. Yet, such automatic detection is challenging due to severe background heterogeneity, dominant empty terrain (class imbalance), small or occluded targets, and wide variation in density and scale. To make the detection model (HerdNet) more robust to these challenges, a weakly supervised patch-level pretraining based on a detection network's architecture is proposed. The detection dataset includes five caribou herds distributed across Alaska. By learning from empty vs. non-empty labels in this dataset, the approach produces early weakly supervised knowledge for enhanced detection compared to HerdNet, which is initialized from generic weights. Accordingly, the patch-based pretrain network attained high accuracy on multi-herd imagery (2017) and on an independent year's (2019) test sets (F1: 93.7%/92.6%, respectively), enabling reliable mapping of regions containing animals to facilitate manual counting on large aerial imagery. Transferred to detection, initialization from weakly supervised pretraining yielded consistent gains over ImageNet weights on both positive patches (F1: 92.6%/93.5% vs. 89.3%/88.6%), and full-image counting (F1: 95.5%/93.3% vs. 91.5%/90.4%). Remaining limitations are false positives from animal-like background clutter and false negatives related to low animal density occlusions. Overall, pretraining on coarse labels prior to detection makes it possible to rely on weakly-supervised pretrained weights even when labeled data are limited, achieving results comparable to generic-weight initialization.
- Abstract(参考訳): 北極圏のカリブーはここ数十年で減少しており、証拠に基づく保護行動と政策決定を導くためのスケーラブルで正確なモニタリングアプローチを動機付けている。
この画像からの手動による解釈は、労働集約的でエラーを起こしやすいものであり、様々な場面で自動かつ確実な検出の必要性を強調している。
しかし、このような自動検出は、厳しい背景の不均一性、支配的な空き地(クラス不均衡)、小さなあるいは隠蔽された目標、密度とスケールの幅広いばらつきにより困難である。
これらの課題に対して,検出モデル(HerdNet)をより堅牢にするために,検出ネットワークのアーキテクチャに基づくパッチレベルの事前トレーニングが弱いことを提案する。
検出データセットには、アラスカに分布する5つのカリブー群れが含まれている。
このデータセットで空のラベルと空でないラベルから学習することにより、一般的な重みから初期化されるHerdNetと比較して、早期に弱い教師付き知識が生成される。
このため、パッチベースのプレトレインネットワークは、マルチヘルド画像(2017年)と独立年(2019年)のテストセット(F1:93.7%/92.6%)で高い精度を達成し、大型の空中画像で手動の計数を容易にするために動物を含む領域の信頼性の高いマッピングを可能にした。
弱い教師による事前訓練による初期化は、両方の正のパッチ(F1: 92.6%/93.5% vs. 89.3%/88.6%)とフルイメージカウント(F1: 95.5%/93.3% vs. 91.5%/90.4%)に対して一貫した利得を得た。
残存する制限は、動物のような背景のぼかしと、動物密度の低い閉塞に関する偽陰性から生じる偽陽性である。
全体として、検出前に粗いラベルを事前訓練することで、ラベル付きデータが制限されている場合でも、弱い教師付き事前訓練重みを頼りにすることができ、一般的な重み付き初期化に匹敵する結果が得られる。
関連論文リスト
- When Language Model Guides Vision: Grounding DINO for Cattle Muzzle Detection [0.48429188360918735]
グラウンドディングDINOは、タスク固有のトレーニングや注釈付きデータなしで銃口を検出する視覚言語モデルである。
我々のモデルは平均平均精度(mAP)@0.5の76.8%を達成し、注釈付きデータを必要としない有望な性能を示す。
論文 参考訳(メタデータ) (2025-09-08T08:21:34Z) - Generative Edge Detection with Stable Diffusion [52.870631376660924]
エッジ検出は一般的に、主に識別法によって対処されるピクセルレベルの分類問題と見なされる。
本稿では、事前学習した安定拡散モデルのポテンシャルを十分に活用して、GED(Generative Edge Detector)という新しい手法を提案する。
複数のデータセットに対して広範な実験を行い、競争性能を達成する。
論文 参考訳(メタデータ) (2024-10-04T01:52:23Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [81.93945602120453]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Bootstrapping Rare Object Detection in High-Resolution Satellite Imagery [2.242884292006914]
本稿では,このようなまれなオブジェクト検出タスクをブートストラップする問題に対処する。
我々は、パッチをサンプリングするための新しいオフラインおよびオンラインクラスタベースのアプローチを提案する。
ケニア・タンザニアのセレンゲティ・マラ地域において,牧畜動物に対するボマ(あるいは小さな囲い)の同定方法を適用した。
論文 参考訳(メタデータ) (2024-03-05T07:44:13Z) - Locate and Verify: A Two-Stream Network for Improved Deepfake Detection [33.50963446256726]
現在のディープフェイク検出法は一般に一般化が不十分である。
本稿では,モデルがエビデンスを抽出する潜在的領域を効果的に拡大する,革新的な2ストリームネットワークを提案する。
また、パッチレベルの偽位置アノテーションを推定するための半教師付きパッチ類似性学習戦略を提案する。
論文 参考訳(メタデータ) (2023-09-20T08:25:19Z) - Augment and Criticize: Exploring Informative Samples for Semi-Supervised
Monocular 3D Object Detection [64.65563422852568]
我々は、一般的な半教師付きフレームワークを用いて、難解な単分子3次元物体検出問題を改善する。
我々は、ラベルのないデータから豊富な情報的サンプルを探索する、新しい、シンプルで効果的なAugment and Criticize'フレームワークを紹介します。
3DSeMo_DLEと3DSeMo_FLEXと呼ばれる2つの新しい検出器は、KITTIのAP_3D/BEV(Easy)を3.5%以上改善した。
論文 参考訳(メタデータ) (2023-03-20T16:28:15Z) - Efficient remedies for outlier detection with variational autoencoders [8.80692072928023]
深層生成モデルによって計算される類似度は、ラベルなしデータによる外れ値検出の候補メトリックである。
理論的に定位された補正は、VAE推定値による鍵バイアスを容易に改善することを示す。
また,VAEのアンサンブル上で計算される確率の分散により,ロバストな外乱検出が可能となることを示す。
論文 参考訳(メタデータ) (2021-08-19T16:00:58Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Learning a Unified Sample Weighting Network for Object Detection [113.98404690619982]
地域サンプリングや重み付けは、現代の地域ベースの物体検出器の成功に極めて重要である。
サンプル重み付けはデータ依存でタスク依存であるべきだと我々は主張する。
サンプルのタスク重みを予測するための統一的なサンプル重み付けネットワークを提案する。
論文 参考訳(メタデータ) (2020-06-11T16:19:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。