論文の概要: Detecting Endangered Marine Species in Autonomous Underwater Vehicle Imagery Using Point Annotations and Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2406.01932v1
- Date: Tue, 4 Jun 2024 03:31:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 20:03:30.981504
- Title: Detecting Endangered Marine Species in Autonomous Underwater Vehicle Imagery Using Point Annotations and Few-Shot Learning
- Title(参考訳): ポイントアノテーションとFew-Shot Learningを用いた自律型水中車両画像における絶滅危惧種の検出
- Authors: Heather Doig, Oscar Pizarro, Jacquomo Monk, Stefan Williams,
- Abstract要約: AUV(Autonomous Underwater Vehicles)が収集した海底画像は、より広い生息環境の中で個人を特定するために利用することができる。
機械学習モデルは、訓練されたオブジェクト検出器を使用して、画像中の特定の種の存在を特定するために使用することができる。
本論文は, 数発学習における最近の研究に触発され, 一般的な海洋生物のイメージやアノテーションを利用して, 希少種と秘密種を識別する能力を高める。
- 参考スコア(独自算出の注目度): 5.439798554380394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One use of Autonomous Underwater Vehicles (AUVs) is the monitoring of habitats associated with threatened, endangered and protected marine species, such as the handfish of Tasmania, Australia. Seafloor imagery collected by AUVs can be used to identify individuals within their broader habitat context, but the sheer volume of imagery collected can overwhelm efforts to locate rare or cryptic individuals. Machine learning models can be used to identify the presence of a particular species in images using a trained object detector, but the lack of training examples reduces detection performance, particularly for rare species that may only have a small number of examples in the wild. In this paper, inspired by recent work in few-shot learning, images and annotations of common marine species are exploited to enhance the ability of the detector to identify rare and cryptic species. Annotated images of six common marine species are used in two ways. Firstly, the common species are used in a pre-training step to allow the backbone to create rich features for marine species. Secondly, a copy-paste operation is used with the common species images to augment the training data. While annotations for more common marine species are available in public datasets, they are often in point format, which is unsuitable for training an object detector. A popular semantic segmentation model efficiently generates bounding box annotations for training from the available point annotations. Our proposed framework is applied to AUV images of handfish, increasing average precision by up to 48\% compared to baseline object detection training. This approach can be applied to other objects with low numbers of annotations and promises to increase the ability to actively monitor threatened, endangered and protected species.
- Abstract(参考訳): 自律水中車両(Autonomous Underwater Vehicles, AUVs)は、オーストラリア・タスマニアのハンドフィッシュのような絶滅危惧種、絶滅危惧種、保護された海洋生物に関連する生息地の監視である。
AUVsが収集した海底画像は、より広い生息環境の中で個人を特定するのに利用することができるが、収集された画像の膨大な量は、希少または秘密の個人を見つける努力を圧倒する可能性がある。
機械学習モデルは、訓練された物体検出器を用いて画像中の特定の種の存在を特定するために使用できるが、訓練例の欠如により検出性能が低下する。
本論文は, 数発学習における最近の研究に触発され, 一般的な海洋生物のイメージやアノテーションを利用して, 希少種と秘密種を識別する能力を高める。
6種の海洋生物の注釈付き画像は2つの方法で使用されている。
第一に、一般的な種は訓練前の段階に使われ、背骨が海洋生物の豊富な特徴を創出することができる。
次に、一般的な種画像とともにコピーペースト操作を使用してトレーニングデータを増強する。
より一般的な海洋生物のアノテーションは公開データセットで利用できるが、それらはしばしば点形式であり、物体検出器の訓練には適さない。
一般的なセマンティックセグメンテーションモデルは、利用可能なポイントアノテーションからトレーニングのためのバウンディングボックスアノテーションを効率的に生成する。
提案手法はハンドフィッシュのAUV画像に適用し,ベースライン物体検出訓練と比較して平均精度を最大48倍に向上させる。
このアプローチは、アノテーションの少ない他のオブジェクトに適用することができ、脅威、絶滅危惧種、保護された種を積極的に監視する能力を高めることを約束する。
関連論文リスト
- Reviving the Context: Camera Trap Species Classification as Link Prediction on Multimodal Knowledge Graphs [31.22129440376567]
カメラトラップ画像に関連付けられた構造化コンテキストを利用して,カメラトラップにおける種分類タスクの分布外一般化を促進する。
野生動物の写真は、捕獲された時間と場所の詳細と、動物種に関する構造化された生物学的知識に関連付けられる。
マルチモーダル知識グラフにおけるリンク予測として種分類を変換する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-31T23:32:03Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z) - Movement Tracks for the Automatic Detection of Fish Behavior in Videos [63.85815474157357]
水中ビデオでサブルフィッシュ(Anoplopoma fimbria)の発芽行動のデータセットを提供し,その上での深層学習(DL)法による行動検出について検討した。
提案する検出システムは,Long Short-Term Memory(LSTM)ネットワークを用いて,サブルフィッシュの起動動作を識別する。
論文 参考訳(メタデータ) (2020-11-28T05:51:19Z) - Unifying data for fine-grained visual species classification [15.14767769034929]
465種にまたがる2.9M画像に基づいて訓練した,初期の深部畳み込みニューラルネットワークモデルを提案する。
長期的な目標は、科学者が種数と人口の健康状態のほぼリアルタイムでの分析から、保護的なレコメンデーションを行うことである。
論文 参考訳(メタデータ) (2020-09-24T01:04:18Z) - Temperate Fish Detection and Classification: a Deep Learning based
Approach [6.282069822653608]
本研究では,2段階の深層学習手法を提案する。
最初のステップは、種や性別によらず、画像中の各魚を検出することです。
第2のステップでは、画像中の各魚を事前フィルタリングせずに分類するために、Squeeze-and-Excitation (SE)アーキテクチャを備えた畳み込みニューラルネットワーク(CNN)を採用する。
論文 参考訳(メタデータ) (2020-05-14T12:40:57Z) - Automatic Detection and Recognition of Individuals in Patterned Species [4.163860911052052]
我々は,異なるパターンの個体の自動検出と認識のための枠組みを開発する。
我々は最近提案したFaster-RCNNオブジェクト検出フレームワークを用いて画像中の動物を効率的に検出する。
我々は,シマウマおよびジャガー画像の認識システムを評価し,他のパターンの種への一般化を示す。
論文 参考訳(メタデータ) (2020-05-06T15:29:21Z) - Fine-grained Species Recognition with Privileged Pooling: Better Sample
Efficiency Through Supervised Attention [26.136331738529243]
トレーニングデータに対するキーポイントアノテーションの形式で特権情報を利用する教師付き画像分類手法を提案する。
我々の主な動機は、生物多様性モデリングのような生態学的応用のための動物種の認識である。
3つの異なる動物種のデータセットを用いた実験では、特権プールを持つ深層ネットワークがより効率的に小さなトレーニングセットを利用でき、より一般化できることが示されている。
論文 参考訳(メタデータ) (2020-03-20T10:03:01Z) - Transferring Dense Pose to Proximal Animal Classes [83.84439508978126]
より一般的な対象検出器やセグメンタなどと同様に、密集したポーズ認識に存在する知識を、他のクラスにおける密集したポーズ認識の問題に移すことが可能であることを示す。
我々は、人間と幾何学的に整合した新しい動物のためのDensePoseモデルを確立することでこれを行う。
また、クラスチンパンジーにDensePoseの方法でラベル付けされた2つのベンチマークデータセットを導入し、アプローチを評価するためにそれらを使用します。
論文 参考訳(メタデータ) (2020-02-28T21:43:53Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。