論文の概要: AutoFish: Dataset and Benchmark for Fine-grained Analysis of Fish
- arxiv url: http://arxiv.org/abs/2501.03767v1
- Date: Tue, 07 Jan 2025 13:14:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:49:26.041099
- Title: AutoFish: Dataset and Benchmark for Fine-grained Analysis of Fish
- Title(参考訳): AutoFish:魚のきめ細かい分析のためのデータセットとベンチマーク
- Authors: Stefan Hein Bengtson, Daniel Lehotský, Vasiliki Ismiroglou, Niels Madsen, Thomas B. Moeslund, Malte Pedersen,
- Abstract要約: このデータセットは、白いコンベアベルト上の様々な星座に配置された視覚的に類似した454種の標本の1,500枚の画像からなる。
データはRGBカメラを使用して制御された環境で収集された。
Mask2Formerアーキテクチャの2つのバリエーションを用いて,ベースラインのインスタンスセグメンテーション結果を確立する。
- 参考スコア(独自算出の注目度): 19.025566399187547
- License:
- Abstract: Automated fish documentation processes are in the near future expected to play an essential role in sustainable fisheries management and for addressing challenges of overfishing. In this paper, we present a novel and publicly available dataset named AutoFish designed for fine-grained fish analysis. The dataset comprises 1,500 images of 454 specimens of visually similar fish placed in various constellations on a white conveyor belt and annotated with instance segmentation masks, IDs, and length measurements. The data was collected in a controlled environment using an RGB camera. The annotation procedure involved manual point annotations, initial segmentation masks proposed by the Segment Anything Model (SAM), and subsequent manual correction of the masks. We establish baseline instance segmentation results using two variations of the Mask2Former architecture, with the best performing model reaching an mAP of 89.15%. Additionally, we present two baseline length estimation methods, the best performing being a custom MobileNetV2-based regression model reaching an MAE of 0.62cm in images with no occlusion and 1.38cm in images with occlusion. Link to project page: https://vap.aau.dk/autofish/.
- Abstract(参考訳): 魚のドキュメンテーションの自動化は、近い将来、持続可能な漁業管理や過剰漁の課題への対処において重要な役割を果たすことが期待されている。
本稿では,魚の微細な分析を目的としたAutoFishという,新規かつ一般公開されたデータセットを提案する。
このデータセットは、白いコンベアベルト上に様々な星座に配置され、サンプルセグメンテーションマスク、ID、長さ測定で注釈付けされた、視覚的に類似した454種の標本の1,500枚の画像からなる。
データはRGBカメラを使用して制御された環境で収集された。
アノテーションの手順には、手動のポイントアノテーション、SAM(Segment Anything Model)によって提案された初期セグメンテーションマスク、その後のマスクのマニュアル修正が含まれていた。
Mask2Formerアーキテクチャの2つのバリエーションを使って、ベースラインのインスタンスセグメンテーション結果を確立し、最高のパフォーマンスモデルが89.15%まで到達した。
さらに,2つのベースライン長推定手法を提案する。最も優れた性能は,0.62cmの画像のMAEに到達するカスタムMobileNetV2ベースの回帰モデルで,閉塞のない画像では1.38cm,閉塞のない画像では0.62cmに達することである。
プロジェクトページへのリンク: https://vap.aau.dk/autofish/。
関連論文リスト
- GroupMamba: Parameter-Efficient and Accurate Group Visual State Space Model [66.35608254724566]
状態空間モデル(SSM)は、二次的複雑性を伴う長距離依存のモデリングにおいて効果的な性能を示した。
しかし、純粋なSSMベースのモデルは、コンピュータビジョンタスクにおける安定性と最適性能の達成に関連する課題に直面している。
本稿では,コンピュータビジョンのためのSSMベースのモデルをスケールする上での課題,特に大規模モデルの不安定性と非効率性について論じる。
論文 参考訳(メタデータ) (2024-07-18T17:59:58Z) - A Fair Ranking and New Model for Panoptic Scene Graph Generation [51.78798765130832]
Decoupled SceneFormer(DSFormer)は、既存のすべてのシーングラフモデルよりも優れた2段階モデルである。
基本設計原則として、DSFormerは被写体とオブジェクトマスクを直接特徴空間にエンコードする。
論文 参考訳(メタデータ) (2024-07-12T12:28:08Z) - FishNet: Deep Neural Networks for Low-Cost Fish Stock Estimation [0.0]
FishNetは、分類分類と魚の大きさ推定の両方を自動化したコンピュータビジョンシステムである。
我々は163種の1.2万魚を含む30万枚の手ラベル画像のデータセットを使用する。
魚の区分け作業では92%、単一魚種分類では89%、魚長推定では2.3cmの平均絶対誤差が達成されている。
論文 参考訳(メタデータ) (2024-03-16T12:44:08Z) - BA-SAM: Scalable Bias-Mode Attention Mask for Segment Anything Model [65.92173280096588]
我々は,Segment Anything Model (SAM)における画像分解能変動の課題に対処する。
SAMはゼロショットの汎用性で知られており、さまざまな画像サイズを持つデータセットに直面するとパフォーマンスが低下する。
我々は、各トークンが隣り合う情報を優先順位付けできるバイアスモードのアテンションマスクを提案する。
論文 参考訳(メタデータ) (2024-01-04T15:34:44Z) - Delving Deeper into Data Scaling in Masked Image Modeling [145.36501330782357]
視覚認識のためのマスク付き画像モデリング(MIM)手法のスケーリング能力に関する実証的研究を行った。
具体的には、Webで収集したCoyo-700Mデータセットを利用する。
我々のゴールは、データとモデルのサイズの異なるスケールでダウンストリームタスクのパフォーマンスがどのように変化するかを調べることです。
論文 参考訳(メタデータ) (2023-05-24T15:33:46Z) - CAE v2: Context Autoencoder with CLIP Target [63.61868058214267]
マスク付き画像モデリング(MIM)は、画像パッチのマスキングと再構成によって視覚表現を学習する。
再建管理をCLIP表現に適用することはMIMに有効であることが証明されている。
CLIPをターゲットとしたMIMの精製戦略を検討するため,MIMにおける2つの重要な要素,すなわち,監督位置とマスク比について検討した。
論文 参考訳(メタデータ) (2022-11-17T18:58:33Z) - Scaling up instance annotation via label propagation [69.8001043244044]
本稿では,オブジェクトセグメンテーションマスクを用いた大規模データセット構築のための高効率アノテーション手法を提案する。
セグメンテーションモデルによるマスク予測に階層的クラスタリングを用いることにより,これらの類似性を生かした。
総アノテーション時間はたった290時間である100万個のオブジェクトセグメンテーションマスクが得られた。
論文 参考訳(メタデータ) (2021-10-05T18:29:34Z) - Affinity LCFCN: Learning to Segment Fish with Weak Supervision [15.245008639754328]
点レベルの監督のみをラベル付けした画像に対して,効率的に訓練された自動セグメンテーションモデルを提案する。
我々のアプローチでは、ひとつのブランチでピクセル当たりのスコアを出力し、別のブランチで親和性行列を出力する完全な畳み込みニューラルネットワークを使用します。
オーストラリア北東部の多くの魚類生息地を含むDeepFishデータセットを用いて,本モデルを検証した。
論文 参考訳(メタデータ) (2020-11-06T00:33:20Z) - A Realistic Fish-Habitat Dataset to Evaluate Algorithms for Underwater
Visual Analysis [2.6476746128312194]
我々は、DeepFishを大規模データセットでベンチマークスイートとして提示し、いくつかのコンピュータビジョンタスクのためのメソッドをトレーニングし、テストする。
このデータセットは、熱帯オーストラリアの海洋環境にある20の温帯生物から採取された約4万枚の画像で構成されている。
実験では,データセットの特徴を詳細に分析し,いくつかの最先端手法の性能評価を行った。
論文 参考訳(メタデータ) (2020-08-28T12:20:59Z) - Counting Fish and Dolphins in Sonar Images Using Deep Learning [0.40611352512781856]
魚とイルカの量推定の現在の方法は、視覚的および捕獲・放出戦略を用いた現場サンプリングによって行われる。
本研究では,漁船の背部から採取したソナー画像から,魚とイルカの深層学習を用いた魚量推定手法を提案する。
論文 参考訳(メタデータ) (2020-07-24T23:52:03Z) - Temperate Fish Detection and Classification: a Deep Learning based
Approach [6.282069822653608]
本研究では,2段階の深層学習手法を提案する。
最初のステップは、種や性別によらず、画像中の各魚を検出することです。
第2のステップでは、画像中の各魚を事前フィルタリングせずに分類するために、Squeeze-and-Excitation (SE)アーキテクチャを備えた畳み込みニューラルネットワーク(CNN)を採用する。
論文 参考訳(メタデータ) (2020-05-14T12:40:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。