論文の概要: SharkTrack: an accurate, generalisable software for streamlining shark and ray underwater video analysis
- arxiv url: http://arxiv.org/abs/2407.20623v3
- Date: Tue, 1 Oct 2024 22:29:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 14:05:01.025031
- Title: SharkTrack: an accurate, generalisable software for streamlining shark and ray underwater video analysis
- Title(参考訳): SharkTrack:サメとレイの水中ビデオ分析を合理化するための正確で汎用的なソフトウェア
- Authors: Filippo Varini, Joel H. Gayford, Jeremy Jenrette, Matthew J. Witt, Francesco Garzon, Francesco Ferretti, Sophie Wilday, Mark E. Bond, Michael R. Heithaus, Danielle Robinson, Devon Carter, Najee Gumbs, Vincent Webster, Ben Glocker,
- Abstract要約: エラスモブランチ(シャーク砂線)は海洋生態系の重要な構成要素である。
しかし、彼らは世界的な人口減少を経験しており、その保護には効果的な人口監視が不可欠である。
そこで我々は,半自動水中ビデオ解析ソフトウェアSharkTrackを開発した。
- 参考スコア(独自算出の注目度): 8.712483459791162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Elasmobranchs (shark sand rays) represent a critical component of marine ecosystems. Yet, they are experiencing global population declines and effective monitoring of populations is essential to their protection. Underwater stationary videos, such as those from Baited Remote Underwater Video Stations (BRUVS), are critical for understanding elasmobranch spatial ecology and abundance. However, processing these videos requires time-consuming manual analysis that can delay conservation. To address this challenge, we developed SharkTrack, a semi-automatic underwater video analysis software. SharkTrack uses Convolutional Neural Networks (CNN) and Multi-Object Tracking to automatically detect and track elasmobranchs and provides an annotation pipeline to manually classify elasmobranch species and compute species-specific MaxN (ssMaxN), the standard metric of relative abundance. When tested on BRUVS footage from locations unseen by the CNN model during training, SharkTrack computed ssMaxN with 89% accuracy over 207 hours of footage. The semi-automatic SharkTrack pipeline required two minutes of manual classification per hour of video, an estimated 95% reduction of manual analysis time compared to traditional methods. Furthermore, we demonstrate SharkTrack accuracy across diverse marine ecosystems and elasmobranch species, an advancement compared to previous models, which were limited to specific species or locations. SharkTrack applications extend beyond BRUVS, facilitating the analysis of any underwater stationary video. By making video analysis faster and more accessible, SharkTrack enables research and conservation organisations to monitor elasmobranch populations more efficiently, thereby improving conservation efforts. To further support these goals, we provide public access to the SharkTrack software.
- Abstract(参考訳): エラスモブランチ(シャーク砂線)は海洋生態系の重要な構成要素である。
しかし、彼らは世界的な人口減少を経験しており、その保護には効果的な人口監視が不可欠である。
Baited Remote Underwater Video Stations (BRUVS) などの水中静止映像は、エラスモブランチの空間生態と豊富さを理解する上で重要である。
しかし、これらのビデオの処理には時間を要する手作業による保存を遅らせる必要がある。
そこで我々は,半自動水中ビデオ解析ソフトウェアSharkTrackを開発した。
SharkTrackはConvolutional Neural Networks(CNN)とMulti-Object Trackingを使用して、エラストモブランチを自動的に検出し追跡し、エラスモブランチ種を手動で分類し、相対的存在量の標準指標である種別MaxN(ssMaxN)を計算するアノテーションパイプラインを提供する。
訓練中にCNNモデルで見えない場所のBRUVSの映像でテストすると、SharkTrackは207時間の映像に対して89%の精度でssMaxNを計算した。
半自動的なSharkTrackパイプラインでは、ビデオの時間あたりの手動分類が2分必要となり、従来の手法に比べて手動解析時間が95%削減されたと見積もられた。
さらに,多様な海洋生態系およびエラストモブランチ種にまたがるSharkTrackの精度を実証した。
SharkTrackアプリケーションはBRUVSを超えて拡張され、水中静止映像の分析が容易になった。
SharkTrackは、ビデオ分析を迅速かつアクセスしやすいものにすることで、研究・保存組織がエラストモブランチの個体群をより効率的に監視し、保存作業を改善することができる。
これらの目標をさらに支援するため、SharkTrackソフトウェアへのパブリックアクセスを提供しています。
関連論文リスト
- Goldfish: Vision-Language Understanding of Arbitrarily Long Videos [51.547065479762715]
任意の長さのビデオの解釈に適した手法を提案する。
また,TVQA-longベンチマークを導入し,視覚とテキストコンテンツの両方に疑問を呈する長編ビデオの理解におけるモデルの能力を評価する。
以上の結果から,本モデルでは長大・短大双方の理解が大幅に改善されていることが示唆された。
論文 参考訳(メタデータ) (2024-07-17T15:59:32Z) - Learning Temporally Consistent Video Depth from Video Diffusion Priors [57.929828486615605]
本研究は,映像深度推定の課題に対処する。
我々は予測タスクを条件付き生成問題に再構成する。
これにより、既存のビデオ生成モデルに埋め込まれた事前の知識を活用することができる。
論文 参考訳(メタデータ) (2024-06-03T16:20:24Z) - Scalable Semantic 3D Mapping of Coral Reefs with Deep Learning [4.8902950939676675]
本稿では,エゴモーション映像から水中環境をマッピングするための新しいパラダイムを提案する。
前例のない規模で高精度な3Dセマンティックマッピングを行い,作業コストを大幅に削減した。
本手法は,サンゴ礁のサンゴ礁モニタリングを飛躍的にスケールアップする。
論文 参考訳(メタデータ) (2023-09-22T11:35:10Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - Diving with Penguins: Detecting Penguins and their Prey in Animal-borne
Underwater Videos via Deep Learning [6.468147948798321]
アフリカ産ペンギン(Spheniscus demersus)は絶滅危惧種である。
水中での狩猟とそれに伴う捕食の成功率についてはほとんど知られていない。
現代のバイオロギング技術は、貴重な洞察を提供する可能性がある。
動物によるペンギンの水中ビデオデータセットを公開し、準備の整った深層学習システムを導入する。
論文 参考訳(メタデータ) (2023-08-14T16:50:27Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - It Takes Two: Masked Appearance-Motion Modeling for Self-supervised
Video Transformer Pre-training [76.69480467101143]
自己監督型ビデオトランスフォーマーの事前トレーニングは、最近マスク・アンド・予測パイプラインの恩恵を受けている。
本稿では,映像中の動きの手がかりを余分な予測対象として明示的に調査し,マスケッド・出現運動モデリングフレームワークを提案する。
一般的なビデオ表現を学習し、Kinects-400で82.3%、Something V2で71.3%、UCF101で91.5%、HMDB51で62.5%を達成する。
論文 参考訳(メタデータ) (2022-10-11T08:05:18Z) - Context-Driven Detection of Invertebrate Species in Deep-Sea Video [11.38215488702246]
4つの水中基質と59種の水中無脊椎動物を時間的に局在させるためのベンチマークスイートについて検討した。
DUSIAは現在、ROVで30fpsで1080pで撮影された25の動画を10時間以上録画している。
いくつかのフレームには、無脊椎動物が興味を持つための正確な境界ボックスの位置がアノテートされている。
論文 参考訳(メタデータ) (2022-06-01T18:59:46Z) - AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild [51.35013619649463]
我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
論文 参考訳(メタデータ) (2021-03-24T15:54:11Z) - A Realistic Fish-Habitat Dataset to Evaluate Algorithms for Underwater
Visual Analysis [2.6476746128312194]
我々は、DeepFishを大規模データセットでベンチマークスイートとして提示し、いくつかのコンピュータビジョンタスクのためのメソッドをトレーニングし、テストする。
このデータセットは、熱帯オーストラリアの海洋環境にある20の温帯生物から採取された約4万枚の画像で構成されている。
実験では,データセットの特徴を詳細に分析し,いくつかの最先端手法の性能評価を行った。
論文 参考訳(メタデータ) (2020-08-28T12:20:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。