論文の概要: A Novel Upsampling and Context Convolution for Image Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2103.11110v1
- Date: Sat, 20 Mar 2021 06:16:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 04:26:46.345625
- Title: A Novel Upsampling and Context Convolution for Image Semantic
Segmentation
- Title(参考訳): 画像意味セグメンテーションのための新しいアップサンプリングとコンテキスト畳み込み
- Authors: Khwaja Monib Sediqi, and Hyo Jong Lee
- Abstract要約: 最近のセマンティックセグメンテーションの方法は、しばしば深い畳み込みニューラルネットワークを用いたエンコーダデコーダ構造を採用している。
ネットワーク内の画像の空間情報を効率的に保存するために,ガイドフィルタに基づく高密度アップサンプリング畳み込み法を提案する。
ADE20KとPascal-Contextのベンチマークデータセットでは,それぞれ82.86%,81.62%の画素精度を記録した。
- 参考スコア(独自算出の注目度): 0.966840768820136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic segmentation, which refers to pixel-wise classification of an image,
is a fundamental topic in computer vision owing to its growing importance in
robot vision and autonomous driving industries. It provides rich information
about objects in the scene such as object boundary, category, and location.
Recent methods for semantic segmentation often employ an encoder-decoder
structure using deep convolutional neural networks. The encoder part extracts
feature of the image using several filters and pooling operations, whereas the
decoder part gradually recovers the low-resolution feature maps of the encoder
into a full input resolution feature map for pixel-wise prediction. However,
the encoder-decoder variants for semantic segmentation suffer from severe
spatial information loss, caused by pooling operations or convolutions with
stride, and does not consider the context in the scene. In this paper, we
propose a dense upsampling convolution method based on guided filtering to
effectively preserve the spatial information of the image in the network. We
further propose a novel local context convolution method that not only covers
larger-scale objects in the scene but covers them densely for precise object
boundary delineation. Theoretical analyses and experimental results on several
benchmark datasets verify the effectiveness of our method. Qualitatively, our
approach delineates object boundaries at a level of accuracy that is beyond the
current excellent methods. Quantitatively, we report a new record of 82.86% and
81.62% of pixel accuracy on ADE20K and Pascal-Context benchmark datasets,
respectively. In comparison with the state-of-the-art methods, the proposed
method offers promising improvements.
- Abstract(参考訳): セマンティックセグメンテーション(セマンティックセグメンテーション、Semantic segmentation)は、画像のピクセル単位での分類であり、ロボットビジョンと自動運転産業における重要性の高まりから、コンピュータビジョンにおける基本的なトピックである。
オブジェクト境界、カテゴリ、ロケーションなど、シーン内のオブジェクトに関する豊富な情報を提供する。
最近のセマンティックセグメンテーション法では、深層畳み込みニューラルネットワークを用いたエンコーダデコーダ構造を用いることが多い。
エンコーダ部は、複数のフィルタとプーリング操作を用いて画像の特徴を抽出する一方、デコーダ部は、エンコーダの低解像度特徴マップを、画素単位で予測するための完全な入力解像度特徴マップに徐々に復元する。
しかし、セマンティクスセグメンテーションのためのエンコーダ・デコーダ変種は、プール操作やstrideとの畳み込みによって引き起こされる厳しい空間的情報損失を被り、シーンの文脈を考慮しない。
本稿では,ネットワーク内の画像の空間情報を効果的に保存するためのガイド付きフィルタリングに基づく高密度アップサンプリング畳み込み手法を提案する。
さらに,シーン内の大規模オブジェクトを包含するだけでなく,厳密なオブジェクト境界線を包含する新しい局所コンテキスト畳み込み手法を提案する。
ベンチマークデータセットの理論的解析と実験結果から,本手法の有効性を検証した。
定性的に、我々の手法は、現在の優れた手法を超える精度でオブジェクトの境界を規定する。
ADE20KとPascal-Contextのベンチマークデータセットでは,それぞれ82.86%,81.62%の画素精度を記録した。
最先端手法と比較して,提案手法は有望な改善をもたらす。
関連論文リスト
- Lidar Annotation Is All You Need [0.0]
本稿では,畳み込みニューラルネットワークを用いたマルチセンサ構成による画像分割の効率向上を目的とする。
当社のアプローチにおける重要な革新は、点雲からの粗い接地トラスマスクに対処する、マスク付き損失である。
ベンチマークデータセットに対するアプローチの実験的検証は、高品質の画像セグメンテーションモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-11-08T15:55:18Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - A Novel Algorithm for Exact Concave Hull Extraction [0.0]
領域抽出は、自律運転における物体検出から細胞生物学における細胞内形態解析まで、幅広い用途で必要とされる。
2つの主要なアプローチがある: 凸殻抽出(convex hull extract)は、正確で効率的なアルゴリズムが存在し、実世界の形状を捉えるのに優れているが、単一の解を持たない。
本研究では,コンケーブ内包を最大分解能(ピクセル完全)で提供し,速度効率のトレードオフを調整可能な新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-23T05:26:48Z) - Semantic Labeling of High Resolution Images Using EfficientUNets and
Transformers [5.177947445379688]
畳み込みニューラルネットワークとディープトランスを組み合わせた新しいセグメンテーションモデルを提案する。
提案手法は,最先端技術と比較してセグメント化精度が向上することを示す。
論文 参考訳(メタデータ) (2022-06-20T12:03:54Z) - Self-Supervised Video Object Segmentation via Cutout Prediction and
Tagging [117.73967303377381]
本稿では, 自己教師型ビデオオブジェクト(VOS)アプローチを提案する。
本手法は,対象情報と背景情報の両方を考慮した識別学習損失の定式化に基づく。
提案手法であるCT-VOSは, DAVIS-2017 と Youtube-VOS の2つの挑戦的なベンチマークにおいて,最先端の結果を達成している。
論文 参考訳(メタデータ) (2022-04-22T17:53:27Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Small Lesion Segmentation in Brain MRIs with Subpixel Embedding [105.1223735549524]
ヒト脳のMRIスキャンを虚血性脳梗塞と正常組織に分割する方法を提案する。
本稿では,空間展開埋め込みネットワークによって予測を導出する標準エンコーダデコーダの形式でニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-09-18T00:21:17Z) - BoundarySqueeze: Image Segmentation as Boundary Squeezing [104.43159799559464]
本研究では,オブジェクトとシーンの微細な高画質画像分割のための新しい手法を提案する。
形態素画像処理技術による拡張と浸食に着想を得て,画素レベルのセグメンテーション問題をスクイーズ対象境界として扱う。
提案手法は,COCO,Cityscapesのインスタンス・セグメンテーション・セグメンテーション・セグメンテーションにおいて大きく向上し,同一条件下での精度・速度ともに従来のPointRendよりも優れていた。
論文 参考訳(メタデータ) (2021-05-25T04:58:51Z) - Beyond Single Stage Encoder-Decoder Networks: Deep Decoders for Semantic
Image Segmentation [56.44853893149365]
セマンティックセグメンテーションのための単一エンコーダ-デコーダ手法は、セマンティックセグメンテーションの品質とレイヤー数あたりの効率の観点からピークに達している。
そこで本研究では,より多くの情報コンテンツを取得するために,浅層ネットワークの集合を用いたデコーダに基づく新しいアーキテクチャを提案する。
アーキテクチャをさらに改善するために,ネットワークの注目度を高めるために,クラスの再バランスを目的とした重み関数を導入する。
論文 参考訳(メタデータ) (2020-07-19T18:44:34Z) - Probabilistic Pixel-Adaptive Refinement Networks [21.233814875276803]
画像適応型後処理法は,高解像度の入力画像をガイダンスデータとして活用することで有用であることを示す。
我々は,画像誘導データに頼らず,画素ごとの予測の信頼性を尊重する確率的画素適応畳み込み(PPAC)を導入する。
PPACが境界アーチファクトの明確化につながるような,光フローとセマンティックセグメンテーションのための精細化ネットワークにおいて,その実用性を実証する。
論文 参考訳(メタデータ) (2020-03-31T17:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。