論文の概要: Exploiting Depth Information for Wildlife Monitoring
- arxiv url: http://arxiv.org/abs/2102.05607v1
- Date: Wed, 10 Feb 2021 18:10:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 14:34:02.143736
- Title: Exploiting Depth Information for Wildlife Monitoring
- Title(参考訳): 野生生物モニタリングのための深度情報探索
- Authors: Timm Haucke and Volker Steinhage
- Abstract要約: 深度推定を用いて動物を検知・識別するカメラトラップを用いた自動手法を提案する。
個々の動物を検出・識別するために,いわゆるインスタンスセグメンテーションのための新しい手法D-Mask R-CNNを提案する。
実験により,動物検出における平均精度スコアの改善による追加深度推定の利点が示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Camera traps are a proven tool in biology and specifically biodiversity
research. However, camera traps including depth estimation are not widely
deployed, despite providing valuable context about the scene and facilitating
the automation of previously laborious manual ecological methods. In this
study, we propose an automated camera trap-based approach to detect and
identify animals using depth estimation. To detect and identify individual
animals, we propose a novel method D-Mask R-CNN for the so-called instance
segmentation which is a deep learning-based technique to detect and delineate
each distinct object of interest appearing in an image or a video clip. An
experimental evaluation shows the benefit of the additional depth estimation in
terms of improved average precision scores of the animal detection compared to
the standard approach that relies just on the image information. This novel
approach was also evaluated in terms of a proof-of-concept in a zoo scenario
using an RGB-D camera trap.
- Abstract(参考訳): カメラトラップは、生物学および特に生物多様性研究における実証済みのツールです。
しかし、シーンに関する貴重なコンテキストを提供し、以前の手作業による生態学的手法の自動化を容易にするにもかかわらず、深度推定を含むカメラトラップは広く展開されていない。
本研究では,深度推定を用いて動物を検出・同定するカメラトラップを用いた自動アプローチを提案する。
個々の動物を検出・同定するために,画像やビデオクリップに現れる関心のある個々の対象を検出・記述する深層学習に基づく手法であるインスタンスセグメンテーションのD-Mask R-CNN法を提案する。
実験評価の結果,画像情報のみに依存する標準手法と比較して,動物検出の平均精度スコアが向上した点において,奥行き推定の利点が示された。
この手法は、RGB-Dカメラトラップを用いた動物園シナリオにおける概念実証の観点からも評価された。
関連論文リスト
- Multi-Camera Collaborative Depth Prediction via Consistent Structure
Estimation [75.99435808648784]
本稿では,新しいマルチカメラ協調深度予測法を提案する。
カメラ間の構造的整合性を維持しながら、大きな重なり合う領域を必要としない。
DDADおよびNuScenesデータセットの実験結果から,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-05T03:44:34Z) - SOCRATES: A Stereo Camera Trap for Monitoring of Biodiversity [0.0]
本研究では,高度に最適化されたハードウェアとソフトウェアを特徴とする3Dカメラトラップ手法を提案する。
SOCRATESの総合的な評価は、動物検出の3.23%ドルの改善だけでなく、動物の存在量を推定するための優れた適用性も示している。
論文 参考訳(メタデータ) (2022-09-19T15:03:35Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Distance Estimation and Animal Tracking for Wildlife Camera Trapping [0.0]
カメラから動物までの距離を推定する完全自動手法を提案する。
我々は、距離を推定するために最先端の相対的MDEと新しいアライメント手順を利用する。
平均絶対距離推定誤差は0.9864mで、精度90.3%、リコール63.8%である。
論文 参考訳(メタデータ) (2022-02-09T18:12:18Z) - Persistent Animal Identification Leveraging Non-Visual Markers [71.14999745312626]
乱雑なホームケージ環境下で各マウスにユニークな識別子を時間をかけて発見し提供することを目的としている。
これは、(i)各マウスの視覚的特徴の区別の欠如、(ii)一定の閉塞を伴うシーンの密閉性のため、非常に難しい問題である。
本手法は, この動物識別問題に対して77%の精度を達成し, 動物が隠れているときの急激な検出を拒否することができる。
論文 参考訳(メタデータ) (2021-12-13T17:11:32Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Overcoming the Distance Estimation Bottleneck in Camera Trap Distance
Sampling [0.0]
動物数の推定は、例えば、土地利用の変化や外来種が種組成に与える影響を評価するために重要である。
本研究では,画像処理とパターン認識の最先端手法を活用した完全自動化ワークフローを提案する。
論文 参考訳(メタデータ) (2021-05-10T10:17:34Z) - An explainable deep vision system for animal classification and
detection in trail-camera images with automatic post-deployment retraining [0.0]
本稿では,テキサス・パークス野生生物局の管理下にあるフィールドから撮影したトレイルカメラ画像における動物検出のための自動視覚システムについて紹介する。
2段階の深層畳み込みニューラルネットワークパイプラインを実装し,動物を含む画像を第1段階で発見し,その画像を処理して第2段階の鳥を検出する。
動物分類システムは、動物画像の感度を93%、特異度を96%と分類する。鳥類検出システムは、感度を93%以上、特異度を92%、インターセクション・オーバー・ユニオン率を68%以上達成する。
論文 参考訳(メタデータ) (2020-10-22T06:29:55Z) - Automatic Detection and Recognition of Individuals in Patterned Species [4.163860911052052]
我々は,異なるパターンの個体の自動検出と認識のための枠組みを開発する。
我々は最近提案したFaster-RCNNオブジェクト検出フレームワークを用いて画像中の動物を効率的に検出する。
我々は,シマウマおよびジャガー画像の認識システムを評価し,他のパターンの種への一般化を示す。
論文 参考訳(メタデータ) (2020-05-06T15:29:21Z) - Automatic image-based identification and biomass estimation of
invertebrates [70.08255822611812]
時間を要する分類と分類は、どれだけの昆虫を処理できるかに強い制限を課す。
我々は、人間の専門家による分類と識別の標準的な手動アプローチを、自動画像ベース技術に置き換えることを提案する。
分類タスクには最先端のResnet-50とInceptionV3 CNNを使用する。
論文 参考訳(メタデータ) (2020-02-05T21:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。