論文の概要: Target Detection and Segmentation in Circular-Scan
Synthetic-Aperture-Sonar Images using Semi-Supervised Convolutional
Encoder-Decoders
- arxiv url: http://arxiv.org/abs/2101.03603v2
- Date: Fri, 19 Mar 2021 16:36:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 10:51:00.734405
- Title: Target Detection and Segmentation in Circular-Scan
Synthetic-Aperture-Sonar Images using Semi-Supervised Convolutional
Encoder-Decoders
- Title(参考訳): 半教師付き畳み込みエンコーダデコーダを用いた円走査合成アパーチャ超音波画像のターゲット検出とセグメンテーション
- Authors: Isaac J. Sledge, Matthew S. Emigh, Jonathan L. King, Denton L. Woods,
J. Tory Cobb, Jose C. Principe
- Abstract要約: マルチアスペクト・セミコヒーレント画像のためのサリエンシーベースのマルチターゲット検出・セグメンテーションフレームワークを提案する。
我々のフレームワークはマルチブランチ・畳み込みエンコーダ・デコーダネットワーク(MB-CEDN)に依存している。
私たちのフレームワークはディープネットワークよりも優れています。
- 参考スコア(独自算出の注目度): 9.713290203986478
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a saliency-based, multi-target detection and segmentation
framework for multi-aspect, semi-coherent imagery formed from circular-scan,
synthetic-aperture sonar (CSAS). Our framework relies on a multi-branch,
convolutional encoder-decoder network (MB-CEDN). The encoder portion extracts
features from one or more CSAS images of the targets. These features are then
split off and fed into multiple decoders that perform pixel-level
classification on the extracted features to roughly mask the target in an
unsupervised-trained manner and detect foreground and background pixels in a
supervised-trained manner. Each of these target-detection estimates provide
different perspectives as to what constitute a target. These opinions are
cascaded into a deep-parsing network to model contextual and spatial
constraints that help isolate targets better than either solution estimate
alone.
We evaluate our framework using real-world CSAS data with five broad target
classes. Since we are the first to consider both CSAS target detection and
segmentation, we adapt existing image and video-processing network topologies
from the literature for comparative purposes. We show that our framework
outperforms supervised deep networks. It greatly outperforms state-of-the-art
unsupervised approaches for diverse target and seafloor types.
- Abstract(参考訳): 本研究では,円形走査型合成アパーチャソナー(csas)を用いた多面的半コヒーレント画像のためのサリエンシーに基づくマルチターゲット検出・セグメンテーションフレームワークを提案する。
我々のフレームワークはマルチブランチ・畳み込みエンコーダ・デコーダネットワーク(MB-CEDN)に依存している。
エンコーダ部は、ターゲットの1つ以上のCSAS画像から特徴を抽出する。
これらの特徴を分割して複数のデコーダに供給し、抽出した特徴のピクセルレベル分類を行い、教師なしの方法でターゲットを大まかにマスクし、教師なしの方法で前景と背景画素を検出する。
これらのターゲット検出推定は、ターゲットを構成するものに関して異なる視点を提供する。
これらの意見は、文脈的および空間的制約をモデル化するディープパーシングネットワークにケースケードされ、どちらのソリューション推定よりもターゲットを分離するのに役立つ。
5つの対象クラスを持つ実世界のCSASデータを用いて,本フレームワークの評価を行った。
我々はCSASターゲット検出とセグメンテーションの両方を最初に検討するため、既存の画像およびビデオ処理ネットワークトポロジを比較目的から適用する。
私たちのフレームワークはディープネットワークよりも優れています。
これは、様々な標的と海底タイプに対する最先端の教師なしアプローチを大幅に上回る。
関連論文リスト
- PGNeXt: High-Resolution Salient Object Detection via Pyramid Grafting Network [24.54269823691119]
本稿では、データセットとネットワークフレームワークの両方の観点から、より難解な高分解能サルエントオブジェクト検出(HRSOD)について述べる。
HRSODデータセットの欠如を補うため、UHRSDと呼ばれる大規模高解像度の高分解能物体検出データセットを慎重に収集した。
すべての画像はピクセルレベルで微妙にアノテートされ、以前の低解像度のSODデータセットをはるかに上回っている。
論文 参考訳(メタデータ) (2024-08-02T09:31:21Z) - A Unified Transformer Framework for Group-based Segmentation:
Co-Segmentation, Co-Saliency Detection and Video Salient Object Detection [59.21990697929617]
人間は、ダイナミックな世界に住んでいるので、画像のグループやビデオのフレームから学ぶことによってオブジェクトをマイニングする傾向があります。
従来のアプローチでは、類似したタスクで異なるネットワークを個別に設計するが、互いに適用するのは困難である。
UFO(UnifiedObject Framework for Co-Object Framework)という,これらの問題に対処するための統一フレームワークを導入する。
論文 参考訳(メタデータ) (2022-03-09T13:35:19Z) - AF$_2$: Adaptive Focus Framework for Aerial Imagery Segmentation [86.44683367028914]
航空画像のセグメンテーションにはいくつかの独特な課題があり、中でも最も重要なものは前景と背景のアンバランスにある。
本稿では,階層的なセグメンテーション手法を採用し,マルチスケール表現を適応的に活用するAdaptive Focus Framework (AF$)を提案する。
AF$は、広く使われている3つの航空ベンチマークの精度を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-18T10:14:45Z) - A Novel Upsampling and Context Convolution for Image Semantic
Segmentation [0.966840768820136]
最近のセマンティックセグメンテーションの方法は、しばしば深い畳み込みニューラルネットワークを用いたエンコーダデコーダ構造を採用している。
ネットワーク内の画像の空間情報を効率的に保存するために,ガイドフィルタに基づく高密度アップサンプリング畳み込み法を提案する。
ADE20KとPascal-Contextのベンチマークデータセットでは,それぞれ82.86%,81.62%の画素精度を記録した。
論文 参考訳(メタデータ) (2021-03-20T06:16:42Z) - FPS-Net: A Convolutional Fusion Network for Large-Scale LiDAR Point
Cloud Segmentation [30.736361776703568]
LiDARポイントクラウドに基づくシーン理解は、自動運転車が安全に運転するのに不可欠なタスクです。
既存のほとんどのメソッドは、情報容量を増やすために、画像チャネルとして異なるポイント属性/モダリティを積み重ねる。
fps-netは,最適なポイントクラウドセグメンテーションのために,投影画像チャネル間の一意性と不一致を生かす畳み込み型融合ネットワークである。
論文 参考訳(メタデータ) (2021-03-01T04:08:28Z) - Boundary-Aware Segmentation Network for Mobile and Web Applications [60.815545591314915]
境界認識ネットワーク(basnet)は、精度の高い画像分割のための予測再定義アーキテクチャとハイブリッド損失と統合されている。
basnetは単一のgpu上で70fps以上動作し、多くの潜在的なアプリケーションが利用できる。
BASNetをベースに、BASNetが「COPY」と「PASTING」現実世界のオブジェクトのための拡張現実であるAR COPY & PASTEと、オブジェクト背景の自動削除のためのWebベースのツールであるOBJECT CUTの2つの(近い)商用アプリケーションをさらに開発しました。
論文 参考訳(メタデータ) (2021-01-12T19:20:26Z) - Beyond Single Stage Encoder-Decoder Networks: Deep Decoders for Semantic
Image Segmentation [56.44853893149365]
セマンティックセグメンテーションのための単一エンコーダ-デコーダ手法は、セマンティックセグメンテーションの品質とレイヤー数あたりの効率の観点からピークに達している。
そこで本研究では,より多くの情報コンテンツを取得するために,浅層ネットワークの集合を用いたデコーダに基づく新しいアーキテクチャを提案する。
アーキテクチャをさらに改善するために,ネットワークの注目度を高めるために,クラスの再バランスを目的とした重み関数を導入する。
論文 参考訳(メタデータ) (2020-07-19T18:44:34Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z) - Contextual Encoder-Decoder Network for Visual Saliency Prediction [42.047816176307066]
本稿では,大規模な画像分類タスクに基づいて事前学習した畳み込みニューラルネットワークに基づくアプローチを提案する。
得られた表現をグローバルなシーン情報と組み合わせて視覚的サリエンシを正確に予測する。
最先端技術と比較して、このネットワークは軽量な画像分類バックボーンに基づいている。
論文 参考訳(メタデータ) (2019-02-18T16:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。