論文の概要: Context-Driven Detection of Invertebrate Species in Deep-Sea Video
- arxiv url: http://arxiv.org/abs/2206.00718v1
- Date: Wed, 1 Jun 2022 18:59:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 14:00:58.184532
- Title: Context-Driven Detection of Invertebrate Species in Deep-Sea Video
- Title(参考訳): 深海ビデオにおける無脊椎動物の文脈駆動検出
- Authors: R. Austin McEver, Bowen Zhang, Connor Levenson, A S M Iftekhar, B.S.
Manjunath
- Abstract要約: 4つの水中基質と59種の水中無脊椎動物を時間的に局在させるためのベンチマークスイートについて検討した。
DUSIAは現在、ROVで30fpsで1080pで撮影された25の動画を10時間以上録画している。
いくつかのフレームには、無脊椎動物が興味を持つための正確な境界ボックスの位置がアノテートされている。
- 参考スコア(独自算出の注目度): 11.38215488702246
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Each year, underwater remotely operated vehicles (ROVs) collect thousands of
hours of video of unexplored ocean habitats revealing a plethora of information
regarding biodiversity on Earth. However, fully utilizing this information
remains a challenge as proper annotations and analysis require trained
scientists time, which is both limited and costly. To this end, we present a
Dataset for Underwater Substrate and Invertebrate Analysis (DUSIA), a benchmark
suite and growing large-scale dataset to train, validate, and test methods for
temporally localizing four underwater substrates as well as temporally and
spatially localizing 59 underwater invertebrate species. DUSIA currently
includes over ten hours of footage across 25 videos captured in 1080p at 30 fps
by an ROV following pre planned transects across the ocean floor near the
Channel Islands of California. Each video includes annotations indicating the
start and end times of substrates across the video in addition to counts of
species of interest. Some frames are annotated with precise bounding box
locations for invertebrate species of interest, as seen in Figure 1. To our
knowledge, DUSIA is the first dataset of its kind for deep sea exploration,
with video from a moving camera, that includes substrate annotations and
invertebrate species that are present at significant depths where sunlight does
not penetrate. Additionally, we present the novel context-driven object
detector (CDD) where we use explicit substrate classification to influence an
object detection network to simultaneously predict a substrate and species
class influenced by that substrate. We also present a method for improving
training on partially annotated bounding box frames. Finally, we offer a
baseline method for automating the counting of invertebrate species of
interest.
- Abstract(参考訳): 毎年、水中遠隔操作車両(rovs)は、未探査の海洋生息地の数千時間分のビデオを収集し、地球上の生物多様性に関する大量の情報を明らかにする。
しかし、適切なアノテーションと分析が訓練された科学者の時間を必要とするため、この情報を完全に活用することは依然として困難である。
本研究では,水中基質および無脊椎動物分析(dusia)のためのデータセット,ベンチマークスイート,大規模データセットの育成,4つの水中基質の時間的局在化と59種の水中無脊椎動物の時間的・空間的局在化のための実験手法を提案する。
ドゥシアは現在、1080p、30fpsで撮影された25本のビデオで10時間以上の映像を収録している。
各ビデオには、関心の種数に加えて、ビデオ全体での基質の開始と終了時間を示すアノテーションが含まれている。
いくつかのフレームには、図1に示すように、無脊椎動物の興味のある種に対する正確な有界箱の位置がアノテートされている。
われわれの知る限り、dusiaは深海探査のための最初のデータセットであり、動くカメラからの映像には、日光が透過しないかなりの深さに存在する基質のアノテーションと無脊椎動物が含まれている。
さらに, 明示的な基質分類を用いて物体検出ネットワークに影響を与え, その基板に影響を及ぼす基質と種を同時に予測する, コンテキスト駆動型物体検出器 (cdd) を提案する。
また,部分注釈付き有界箱フレームのトレーニングを改善する方法を提案する。
最後に,興味のある無脊椎動物の計数を自動化するためのベースライン手法を提案する。
関連論文リスト
- Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - Multi-label Video Classification for Underwater Ship Inspection [2.537406035246369]
本稿では,ディープラーニングとコンピュータビジョンを用いた自動映像解析システムを提案する。
提案手法は有望な結果を示し,水中ビデオ船体検査における今後の研究・開発のためのベンチマークとして機能する。
論文 参考訳(メタデータ) (2023-05-27T02:38:54Z) - A Dataset with Multibeam Forward-Looking Sonar for Underwater Object
Detection [0.0]
マルチビーム前方ソナー (MFLS) は水中検出において重要な役割を担っている。
MFLSを用いた水中物体検出の研究にはいくつかの課題がある。
本稿では,Tritech Gemini 1200ikソナーを用いて,9000枚以上のMFLS画像からなる新しいデータセットを提案する。
論文 参考訳(メタデータ) (2022-12-01T08:26:03Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - FathomNet: A global underwater image training set for enabling
artificial intelligence in the ocean [0.0]
オーシャンゴープラットフォームは、監視とナビゲーションのために高解像度のカメラフィードを統合することで、視覚データを大量に生成している。
機械学習の最近の進歩は、視覚データの高速かつ洗練された分析を可能にするが、海洋学の世界では成功しなかった。
FathomNetのデータに基づいてトレーニングされた機械学習モデルを、さまざまな機関のビデオデータに適用する方法を実証する。
論文 参考訳(メタデータ) (2021-09-29T18:08:42Z) - ASOD60K: Audio-Induced Salient Object Detection in Panoramic Videos [79.05486554647918]
本研究では,パノラマビデオから有能な物体を分離する新しいタスクであるPV-SODを提案する。
既存の固定レベルやオブジェクトレベルの塩分濃度検出タスクとは対照的に,多モードの塩分濃度検出(SOD)に焦点を当てる。
AsOD60Kという,6レベル階層の4K解像度ビデオフレームを含む,最初の大規模データセットを収集する。
論文 参考訳(メタデータ) (2021-07-24T15:14:20Z) - Detection of Deepfake Videos Using Long Distance Attention [73.6659488380372]
既存のほとんどの検出方法は、問題をバニラ二項分類問題として扱う。
本稿では,偽顔と実顔の相違が非常に微妙であるため,特にきめ細かな分類問題として扱われる。
大域的な視点で空間的・時間的偽の痕跡を捉えるための2つの要素を持つ時空間モデルを提案する。
論文 参考訳(メタデータ) (2021-06-24T08:33:32Z) - AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild [51.35013619649463]
我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
論文 参考訳(メタデータ) (2021-03-24T15:54:11Z) - A Realistic Fish-Habitat Dataset to Evaluate Algorithms for Underwater
Visual Analysis [2.6476746128312194]
我々は、DeepFishを大規模データセットでベンチマークスイートとして提示し、いくつかのコンピュータビジョンタスクのためのメソッドをトレーニングし、テストする。
このデータセットは、熱帯オーストラリアの海洋環境にある20の温帯生物から採取された約4万枚の画像で構成されている。
実験では,データセットの特徴を詳細に分析し,いくつかの最先端手法の性能評価を行った。
論文 参考訳(メタデータ) (2020-08-28T12:20:59Z) - FathomNet: An underwater image training database for ocean exploration
and discovery [0.0]
FathomNetは、最新のインテリジェントで自動化された水中画像解析の開発を加速するために最適化された、新しいベースラインイメージトレーニングセットである。
現在までに8万枚以上の画像と10万6000枚以上の局所化が233のクラスで行われており、その中には中層生物やベント生物が含まれる。
この新たなデータセットの予測による品質結果が得られたが、我々の結果は最終的に、海洋探査のためにより大きなデータセットが必要であることを示唆している。
論文 参考訳(メタデータ) (2020-06-30T21:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。