論文の概要: Boundary Corrected Multi-scale Fusion Network for Real-time Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2203.00436v1
- Date: Tue, 1 Mar 2022 13:31:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 14:58:22.604359
- Title: Boundary Corrected Multi-scale Fusion Network for Real-time Semantic
Segmentation
- Title(参考訳): リアルタイム意味セグメンテーションのための境界補正マルチスケール融合ネットワーク
- Authors: Tianjiao Jiang, Yi Jin, Tengfei Liang, Xu Wang, Yidong Li
- Abstract要約: 既存のセマンティックセグメンテーション法は高い精度を達成するために高解像度の入力に依存しており、推論時間の要件を満たしていない。
設計した低分解能多スケール核融合モジュールを用いて意味情報を抽出する境界補正多スケール核融合ネットワークを提案する。
本手法は,リアルタイムセマンティックセグメンテーションの精度と速度の最先端バランスを実現する。
- 参考スコア(独自算出の注目度): 15.879949436633021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image semantic segmentation aims at the pixel-level classification of images,
which has requirements for both accuracy and speed in practical application.
Existing semantic segmentation methods mainly rely on the high-resolution input
to achieve high accuracy and do not meet the requirements of inference time.
Although some methods focus on high-speed scene parsing with lightweight
architectures, they can not fully mine semantic features under low computation
with relatively low performance. To realize the real-time and high-precision
segmentation, we propose a new method named Boundary Corrected Multi-scale
Fusion Network, which uses the designed Low-resolution Multi-scale Fusion
Module to extract semantic information. Moreover, to deal with boundary errors
caused by low-resolution feature map fusion, we further design an additional
Boundary Corrected Loss to constrain overly smooth features. Extensive
experiments show that our method achieves a state-of-the-art balance of
accuracy and speed for the real-time semantic segmentation.
- Abstract(参考訳): 画像セマンティックセグメンテーションは、画像のピクセルレベルの分類を目標とし、実用における精度と速度の両方の要件がある。
既存のセマンティックセグメンテーション法は主に高精度な入力に頼っており、推論時間の要件を満たしていない。
軽量アーキテクチャによる高速シーン解析にフォーカスする手法もあるが、比較的低い性能で低計算下で意味的特徴を完全にマイニングすることはできない。
本研究では,リアルタイム・高精度セグメンテーションを実現するために,低解像度マルチスケール融合モジュールを用いて意味情報を抽出するバウンダリ補正マルチスケール融合ネットワークを提案する。
さらに,低分解能特徴マップ融合による境界誤差に対処するため,過剰に滑らかな特徴量を制限するために,さらに境界補正損失を設計できる。
大規模な実験により,リアルタイムセマンティックセグメンテーションの精度と速度の最先端のバランスが得られた。
関連論文リスト
- Memory-Constrained Semantic Segmentation for Ultra-High Resolution UAV
Imagery [35.96063342025938]
本稿では,超高解像度UAV画像の高効率・高効率セグメンテーションを実現するための複雑な課題について検討する。
本稿では、ローカルパッチ以外のコンテキストにアクセスすることなく、ローカル推論のためのGPUメモリ効率が高く効果的なフレームワークを提案する。
基礎となる高解像度情報の潜在的な意味バイアスを補正するために,効率的なメモリベースインタラクション方式を提案する。
論文 参考訳(メタデータ) (2023-10-07T07:44:59Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - A Robust Morphological Approach for Semantic Segmentation of Very High
Resolution Images [2.2230089845369085]
既存のセマンティックセグメンテーションアルゴリズムを高解像度画像にシームレスに拡張する堅牢なパイプラインを開発する。
提案手法では,高解像度画像の真理アノテーションは不要である。
提案手法により得られたセマンティックセグメンテーションの結果が,高解像度画像上の既存の最先端アルゴリズムに勝っていることを示す。
論文 参考訳(メタデータ) (2022-08-02T05:25:35Z) - Real-Time Scene Text Detection with Differentiable Binarization and
Adaptive Scale Fusion [62.269219152425556]
セグメンテーションに基づくシーンテキスト検出手法はシーンテキスト検出分野において大きな注目を集めている。
本稿では,二項化処理をセグメンテーションネットワークに統合する分散二項化(DB)モジュールを提案する。
アダプティブ・スケール・フュージョン (ASF) モジュールは, 異なるスケールの特徴を適応的に融合させることにより, スケールのロバスト性を向上させる。
論文 参考訳(メタデータ) (2022-02-21T15:30:14Z) - High Quality Segmentation for Ultra High-resolution Images [72.97958314291648]
超高分解能セグメンテーション精錬作業のための連続精細モデルを提案する。
提案手法は画像分割精細化において高速かつ効果的である。
論文 参考訳(メタデータ) (2021-11-29T11:53:06Z) - BoundarySqueeze: Image Segmentation as Boundary Squeezing [104.43159799559464]
本研究では,オブジェクトとシーンの微細な高画質画像分割のための新しい手法を提案する。
形態素画像処理技術による拡張と浸食に着想を得て,画素レベルのセグメンテーション問題をスクイーズ対象境界として扱う。
提案手法は,COCO,Cityscapesのインスタンス・セグメンテーション・セグメンテーション・セグメンテーションにおいて大きく向上し,同一条件下での精度・速度ともに従来のPointRendよりも優れていた。
論文 参考訳(メタデータ) (2021-05-25T04:58:51Z) - A Novel Upsampling and Context Convolution for Image Semantic
Segmentation [0.966840768820136]
最近のセマンティックセグメンテーションの方法は、しばしば深い畳み込みニューラルネットワークを用いたエンコーダデコーダ構造を採用している。
ネットワーク内の画像の空間情報を効率的に保存するために,ガイドフィルタに基づく高密度アップサンプリング畳み込み法を提案する。
ADE20KとPascal-Contextのベンチマークデータセットでは,それぞれ82.86%,81.62%の画素精度を記録した。
論文 参考訳(メタデータ) (2021-03-20T06:16:42Z) - Real-time Semantic Segmentation with Fast Attention [94.88466483540692]
本稿では,高解像度画像と映像をリアルタイムにセマンティックセグメンテーションするための新しいアーキテクチャを提案する。
提案したアーキテクチャは我々の空間的注意の速さに依存しており、これは一般的な自己注意機構の単純かつ効率的な修正である。
複数のデータセットに対する結果から,既存の手法に比べて精度と速度が向上し,優れた性能を示した。
論文 参考訳(メタデータ) (2020-07-07T22:37:16Z) - BiSeNet V2: Bilateral Network with Guided Aggregation for Real-time
Semantic Segmentation [118.46210049742993]
バイラテラル空間ネットワーク(BiSeNet V2)と呼ばれる,速度と精度のトレードオフが良好である効率的なアーキテクチャを提案する。
2,048x1の入力に対して、我々はCityscapesテストセットで72.6%の平均IoUを1つのNVIDIA GeForce 1080 Tiカードで156 FPSで達成した。
論文 参考訳(メタデータ) (2020-04-05T10:26:38Z) - FarSee-Net: Real-Time Semantic Segmentation by Efficient Multi-scale
Context Aggregation and Feature Space Super-resolution [14.226301825772174]
Cascaded Factorized Atrous Space Pyramid Pooling (CF-ASPP) と呼ばれる新しい効率的なモジュールについて紹介する。
これは畳み込みニューラルネットワーク(CNN)のための軽量なカスケード構造であり、コンテキスト情報を効率的に活用する。
我々は1枚のNivida Titan X (Maxwell) GPUカードでCityscapesテストセットの84fpsで68.4% mIoUを達成した。
論文 参考訳(メタデータ) (2020-03-09T03:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。