論文の概要: ATLANTIS: A Benchmark for Semantic Segmentation of Waterbody Images
- arxiv url: http://arxiv.org/abs/2111.11567v1
- Date: Mon, 22 Nov 2021 22:56:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 06:45:12.503882
- Title: ATLANTIS: A Benchmark for Semantic Segmentation of Waterbody Images
- Title(参考訳): ATLANTIS:水域画像のセマンティックセグメンテーションのためのベンチマーク
- Authors: Seyed Mohammad Hassan Erfani, Zhenyao Wu, Xinyi Wu, Song Wang, Erfan
Goharian
- Abstract要約: ATLANTISは,水系とその関連オブジェクトのセマンティックセグメンテーションのための新しいベンチマークである。
ATLANTISは5,195枚の水たまりの画像と56種類のオブジェクトの高品質なピクセルレベルの手動アノテーションで構成されている。
新しいディープニューラルネットワークであるAquaNetは、水生領域と非水生領域を2つの異なる経路で処理することで、水域のセマンティックセマンティックセグメンテーションのために開発された。
- 参考スコア(独自算出の注目度): 11.694400268453366
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Vision-based semantic segmentation of waterbodies and nearby related objects
provides important information for managing water resources and handling
flooding emergency. However, the lack of large-scale labeled training and
testing datasets for water-related categories prevents researchers from
studying water-related issues in the computer vision field. To tackle this
problem, we present ATLANTIS, a new benchmark for semantic segmentation of
waterbodies and related objects. ATLANTIS consists of 5,195 images of
waterbodies, as well as high quality pixel-level manual annotations of 56
classes of objects, including 17 classes of man-made objects, 18 classes of
natural objects and 21 general classes. We analyze ATLANTIS in detail and
evaluate several state-of-the-art semantic segmentation networks on our
benchmark. In addition, a novel deep neural network, AQUANet, is developed for
waterbody semantic segmentation by processing the aquatic and non-aquatic
regions in two different paths. AQUANet also incorporates low-level feature
modulation and cross-path modulation for enhancing feature representation.
Experimental results show that the proposed AQUANet outperforms other
state-of-the-art semantic segmentation networks on ATLANTIS. We claim that
ATLANTIS is the largest waterbody image dataset for semantic segmentation
providing a wide range of water and water-related classes and it will benefit
researchers of both computer vision and water resources engineering.
- Abstract(参考訳): 視覚に基づくウォーターボディと周辺関連物体のセマンティクスセグメンテーションは、水資源の管理と洪水緊急時の対処に重要な情報を提供する。
しかし、大規模なラベル付きトレーニングや水関連カテゴリのデータセットの欠如により、研究者はコンピュータビジョン分野における水関連問題を研究できない。
この問題に対処するため,水系および関連オブジェクトのセマンティックセグメンテーションのための新しいベンチマークであるATLANTISを提案する。
アトランティスは5,195枚のウォーターボディーの画像と、17種類の人工物、18の自然物、21の一般的なクラスを含む56のクラスからなる高品質のピクセルレベルの手動アノテーションで構成されている。
本ベンチマークでは,atlantisを詳細に分析し,最先端セマンティクスセグメンテーションネットワークの評価を行った。
さらに,水性領域と非水性領域を2つの異なる経路で処理することで,水性セマンティックセグメンテーションのための新しいディープニューラルネットワークAquaNetを開発した。
AQUANetはまた、低レベルな特徴変調とクロスパス変調を組み込んで特徴表現を強化する。
実験の結果,提案したAquaNetは,ATLANTIS上の他の最先端セマンティックセマンティックセグメンテーションネットワークよりも優れていることがわかった。
ATLANTISはセマンティックセグメンテーションのための最大の水体画像データセットであり、幅広い水・水関連クラスを提供しており、コンピュータビジョンと水資源工学の両方の研究者に恩恵をもたらすだろう。
関連論文リスト
- Diving into Underwater: Segment Anything Model Guided Underwater Salient Instance Segmentation and A Large-scale Dataset [60.14089302022989]
水中視覚タスクは複雑な水中状況のため、しばしばセグメンテーションの精度が低い。
第1次大規模水中塩分分節データセット(USIS10K)を構築した。
本研究では,水中ドメインに特化してセグメンツ・ア・シング・モデル(USIS-SAM)に基づく水中塩分・インスタンス・アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-10T06:17:33Z) - Deep Learning Innovations for Underwater Waste Detection: An In-Depth Analysis [0.0]
本稿では, 埋立廃棄物処理とごみ処理の基盤となるため, 最先端のアーキテクチャと既存のデータセットを網羅的に検討する。
第一の目的は、高度な水中センサーと自律型水中車両によって活用される物体の局所化手法のベンチマークを確立することである。
論文 参考訳(メタデータ) (2024-05-28T15:51:18Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - DeepAqua: Self-Supervised Semantic Segmentation of Wetland Surface Water
Extent with SAR Images using Knowledge Distillation [44.99833362998488]
トレーニングフェーズ中に手動アノテーションを不要にする自己教師型ディープラーニングモデルであるDeepAquaを提案する。
我々は、光とレーダーをベースとしたウォーターマスクが一致する場合を利用して、水面と植物の両方を検知する。
実験の結果,DeepAquaの精度は7%向上し,Intersection Over Unionが27%,F1が14%向上した。
論文 参考訳(メタデータ) (2023-05-02T18:06:21Z) - Semantic-aware Texture-Structure Feature Collaboration for Underwater
Image Enhancement [58.075720488942125]
水中画像の強調は海洋工学や水生ロボット工学において重要な技術として注目されている。
我々は,高レベルな意味認識事前学習モデルと協調して,効率的でコンパクトな拡張ネットワークを開発する。
また,提案手法を水中の有意な物体検出タスクに適用し,高レベルの視覚タスクに適した意味認識能力を明らかにする。
論文 参考訳(メタデータ) (2022-11-19T07:50:34Z) - SEA: Bridging the Gap Between One- and Two-stage Detector Distillation
via SEmantic-aware Alignment [76.80165589520385]
細粒度情報を抽象化する性質から,SEA (SEmantic-Aware Alignment) 蒸留法を命名した。
1段検出器と2段検出器の両方において、挑戦的な物体検出タスクにおいて、最先端の新たな結果が得られる。
論文 参考訳(メタデータ) (2022-03-02T04:24:05Z) - An Underwater Image Semantic Segmentation Method Focusing on Boundaries
and a Real Underwater Scene Semantic Segmentation Dataset [41.842352295729555]
実シーンの最初の水中セマンティックセマンティックセグメンテーションデータセット(DUT-USEG:DUT水中データセット)をラベル付けし、確立する。
境界に着目した半教師付き水中セマンティックセグメンテーションネットワーク(US-Net:水中ネットワーク)を提案する。
実験の結果,DUT-USEGデータセットのホロトゥリアン,キチナス,ヒトデ,および最先端の3つのカテゴリーにおいて,提案手法が6.7%向上することが確認された。
論文 参考訳(メタデータ) (2021-08-26T12:05:08Z) - Dense Attention Fluid Network for Salient Object Detection in Optical
Remote Sensing Images [193.77450545067967]
光リモートセンシング画像(RSI)における有意物体検出のためのエンド・ツー・エンドDense Attention Fluid Network(DAFNet)を提案する。
GCA(Global Context-Aware Attention)モジュールは、長距離の意味的関係を適応的にキャプチャするために提案される。
我々は、2000枚の画像とピクセルワイドなサリエンシアノテーションを含むSODのための新しい、挑戦的な光学RSIデータセットを構築した。
論文 参考訳(メタデータ) (2020-11-26T06:14:10Z) - SVAM: Saliency-guided Visual Attention Modeling by Autonomous Underwater
Robots [16.242924916178282]
本稿では,自律型水中ロボットの視覚的注意モデル(SVAM)に対する総合的なアプローチを提案する。
提案するSVAM-Netは,様々なスケールの深部視覚的特徴を統合し,自然水中画像に有効なSOD(Salient Object Detection)を実現する。
論文 参考訳(メタデータ) (2020-11-12T08:17:21Z) - Semantic Segmentation of Underwater Imagery: Dataset and Benchmark [13.456412091502527]
水中イメージリー(SUIM)のセマンティック分析のための最初の大規模データセットを提示する。
魚(無脊椎動物)、サンゴ礁(無脊椎動物)、水生植物、難破船、人間ダイバー、ロボット、海底植物である。
また、標準的な性能指標に基づいて、最先端のセマンティックセマンティックセマンティクス手法のベンチマーク評価を行う。
論文 参考訳(メタデータ) (2020-04-02T19:53:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。