論文の概要: Semantic Segmentation of Underwater Imagery: Dataset and Benchmark
- arxiv url: http://arxiv.org/abs/2004.01241v3
- Date: Sun, 13 Sep 2020 23:47:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 13:14:36.461187
- Title: Semantic Segmentation of Underwater Imagery: Dataset and Benchmark
- Title(参考訳): 水中画像のセマンティックセグメンテーション:データセットとベンチマーク
- Authors: Md Jahidul Islam, Chelsey Edge, Yuyang Xiao, Peigen Luo, Muntaqim
Mehtaz, Christopher Morse, Sadman Sakib Enan and Junaed Sattar
- Abstract要約: 水中イメージリー(SUIM)のセマンティック分析のための最初の大規模データセットを提示する。
魚(無脊椎動物)、サンゴ礁(無脊椎動物)、水生植物、難破船、人間ダイバー、ロボット、海底植物である。
また、標準的な性能指標に基づいて、最先端のセマンティックセマンティックセマンティクス手法のベンチマーク評価を行う。
- 参考スコア(独自算出の注目度): 13.456412091502527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present the first large-scale dataset for semantic
Segmentation of Underwater IMagery (SUIM). It contains over 1500 images with
pixel annotations for eight object categories: fish (vertebrates), reefs
(invertebrates), aquatic plants, wrecks/ruins, human divers, robots, and
sea-floor. The images have been rigorously collected during oceanic
explorations and human-robot collaborative experiments, and annotated by human
participants. We also present a benchmark evaluation of state-of-the-art
semantic segmentation approaches based on standard performance metrics. In
addition, we present SUIM-Net, a fully-convolutional encoder-decoder model that
balances the trade-off between performance and computational efficiency. It
offers competitive performance while ensuring fast end-to-end inference, which
is essential for its use in the autonomy pipeline of visually-guided underwater
robots. In particular, we demonstrate its usability benefits for visual
servoing, saliency prediction, and detailed scene understanding. With a variety
of use cases, the proposed model and benchmark dataset open up promising
opportunities for future research in underwater robot vision.
- Abstract(参考訳): 本稿では,水中画像のセマンティックセマンティックセグメンテーション(SUIM)のための,最初の大規模データセットを提案する。
この画像には、魚(脊椎動物)、サンゴ礁(無脊椎動物)、水生植物、難破物/ルール、人間のダイバー、ロボット、海底の8つのカテゴリーのピクセルアノテーションが付いた1500以上の画像が含まれている。
この画像は海洋探査や人間とロボットによる共同実験で厳密に収集され、人間が注釈を付けている。
また,標準性能指標に基づく最先端意味セグメンテーション手法のベンチマーク評価を行う。
さらに,性能と計算効率のトレードオフを均衡させる完全畳み込みエンコーダデコーダモデルSUIM-Netを提案する。
これは、視覚誘導水中ロボットの自律パイプラインでの使用に不可欠な、エンドツーエンドの迅速な推論を保証しながら、競争力のあるパフォーマンスを提供する。
特に,視覚サーボ,サリエンシー予測,詳細なシーン理解におけるユーザビリティのメリットを実証する。
さまざまなユースケースにおいて、提案されたモデルとベンチマークデータセットは、将来の水中ロボットビジョン研究の有望な機会を開く。
関連論文リスト
- On Vision Transformers for Classification Tasks in Side-Scan Sonar Imagery [0.0]
サイドスキャンソナー (SSS) 画像は海底の人工物体の分類においてユニークな課題を呈している。
本稿では、SSS画像のバイナリ分類タスクによく使用されるCNNアーキテクチャとともに、VTモデルの性能を厳格に比較する。
ViTベースのモデルは、f1スコア、精度、リコール、精度の指標で優れた分類性能を示す。
論文 参考訳(メタデータ) (2024-09-18T14:36:50Z) - Diving into Underwater: Segment Anything Model Guided Underwater Salient Instance Segmentation and A Large-scale Dataset [60.14089302022989]
水中視覚タスクは複雑な水中状況のため、しばしばセグメンテーションの精度が低い。
第1次大規模水中塩分分節データセット(USIS10K)を構築した。
本研究では,水中ドメインに特化してセグメンツ・ア・シング・モデル(USIS-SAM)に基づく水中塩分・インスタンス・アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-10T06:17:33Z) - SatSynth: Augmenting Image-Mask Pairs through Diffusion Models for Aerial Semantic Segmentation [69.42764583465508]
我々は,地球観測における注釈付きデータの不足に対処するために,生成的画像拡散の可能性を探る。
我々の知る限りでは、衛星セグメンテーションのための画像と対応するマスクの両方を最初に生成する。
論文 参考訳(メタデータ) (2024-03-25T10:30:22Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - A Threefold Review on Deep Semantic Segmentation: Efficiency-oriented,
Temporal and Depth-aware design [77.34726150561087]
我々は、自動運転車のビジョンの文脈において、Deep Semanticの最も関連性があり最近の進歩について調査を行う。
私たちの主な目的は、それぞれの視点で直面している主要な方法、利点、制限、結果、課題に関する包括的な議論を提供することです。
論文 参考訳(メタデータ) (2023-03-08T01:29:55Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - Transformer-based Self-Supervised Fish Segmentation in Underwater Videos [1.9249287163937976]
魚の高品質なセグメンテーションのための自己スーパービジョンを用いたトランスフォーマー方式を提案する。
1つのデータセットから水中ビデオのセットをトレーニングすると、提案モデルは従来のCNNベースおよびTransformerベースの自己教師方式を上回ることが示される。
論文 参考訳(メタデータ) (2022-06-11T01:20:48Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - SVAM: Saliency-guided Visual Attention Modeling by Autonomous Underwater
Robots [16.242924916178282]
本稿では,自律型水中ロボットの視覚的注意モデル(SVAM)に対する総合的なアプローチを提案する。
提案するSVAM-Netは,様々なスケールの深部視覚的特徴を統合し,自然水中画像に有効なSOD(Salient Object Detection)を実現する。
論文 参考訳(メタデータ) (2020-11-12T08:17:21Z) - A Realistic Fish-Habitat Dataset to Evaluate Algorithms for Underwater
Visual Analysis [2.6476746128312194]
我々は、DeepFishを大規模データセットでベンチマークスイートとして提示し、いくつかのコンピュータビジョンタスクのためのメソッドをトレーニングし、テストする。
このデータセットは、熱帯オーストラリアの海洋環境にある20の温帯生物から採取された約4万枚の画像で構成されている。
実験では,データセットの特徴を詳細に分析し,いくつかの最先端手法の性能評価を行った。
論文 参考訳(メタデータ) (2020-08-28T12:20:59Z) - Deep Learning based Segmentation of Fish in Noisy Forward Looking MBES
Images [1.5469452301122177]
セマンティックセグメンテーションのためのディープラーニング(DL)と畳み込みニューラルネットワーク(CNN)の最近の進歩に基づいて構築する。
画像ソナーによって投影される全ての射程方位位置に対する魚・魚・魚の確率予測のためのエンドツーエンドのアプローチを実証する。
我々は,本モデルが所望のパフォーマンスを証明し,意味的文脈の重要性を活用することを学習したことを示す。
論文 参考訳(メタデータ) (2020-06-16T09:57:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。