論文の概要: ContourRend: A Segmentation Method for Improving Contours by Rendering
- arxiv url: http://arxiv.org/abs/2007.07437v1
- Date: Wed, 15 Jul 2020 02:16:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 05:56:26.714601
- Title: ContourRend: A Segmentation Method for Improving Contours by Rendering
- Title(参考訳): ContourRend: レンダリングによる輪郭改善のためのセグメンテーション手法
- Authors: Junwen Chen, Yi Lu, Yaran Chen, Dongbin Zhao, and Zhonghua Pang
- Abstract要約: マスクベースのセグメンテーションは粗い予測グリッドで輪郭特徴をうまく扱えない。
本稿では,畳み込み輪郭を改良するために畳み込み輪郭を用いるContourendを提案する。
本手法は, 平均結合面積が72.41%に達し, ベースラインのポリゴンGCNを1.22%超える。
- 参考スコア(独自算出の注目度): 10.13129256609938
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A good object segmentation should contain clear contours and complete
regions. However, mask-based segmentation can not handle contour features well
on a coarse prediction grid, thus causing problems of blurry edges. While
contour-based segmentation provides contours directly, but misses contours'
details. In order to obtain fine contours, we propose a segmentation method
named ContourRend which adopts a contour renderer to refine segmentation
contours. And we implement our method on a segmentation model based on graph
convolutional network (GCN). For the single object segmentation task on
cityscapes dataset, the GCN-based segmentation con-tour is used to generate a
contour of a single object, then our contour renderer focuses on the pixels
around the contour and predicts the category at high resolution. By rendering
the contour result, our method reaches 72.41% mean intersection over union
(IoU) and surpasses baseline Polygon-GCN by 1.22%.
- Abstract(参考訳): 良いオブジェクトセグメンテーションは明確な輪郭と完全な領域を含むべきである。
しかし、マスクベースのセグメンテーションは粗い予測格子上の輪郭特徴をうまく扱えないため、ぼやけたエッジの問題を引き起こす。
輪郭ベースのセグメンテーションは輪郭を直接提供するが、輪郭の詳細を見逃す。
細かな輪郭を得るために,輪郭レンダラーを用いて分節輪郭を洗練させるContourRendというセグメンテーション手法を提案する。
また,本手法をグラフ畳み込みネットワーク(gcn)に基づくセグメンテーションモデルに実装する。
都市景観データセット上の単一オブジェクトセグメンテーションタスクでは、GCNベースのセグメンテーションコントラルが単一のオブジェクトの輪郭を生成するために使用され、輪郭レンダラーは輪郭周辺のピクセルに焦点を合わせ、そのカテゴリを高解像度で予測する。
輪郭結果のレンダリングにより, 平均和和(IoU)が72.41%に達し, ベースラインのポリゴンGCNを1.22%超えた。
関連論文リスト
- Joint Dense-Point Representation for Contour-Aware Graph Segmentation [2.138299283227551]
本稿では,点と画素の輪郭表現を共同で学習することにより,グラフと高密度セグメンテーション技術を組み合わせた新しい手法を提案する。
これは、不整合目的がネットワークを識別的・輪郭的特徴の学習から制限する典型的なグラフ分割法における欠陥に対処する。
提案手法はいくつかのケストX線データセットで検証され,セグメンテーション安定性と精度の明確な改善が示された。
論文 参考訳(メタデータ) (2023-06-21T10:07:17Z) - PSSNet: Planarity-sensible Semantic Segmentation of Large-scale Urban
Meshes [3.058685580689605]
テクスチャメッシュとして表現された3次元都市シーンを解釈するための,新しいディープラーニングベースのフレームワークを提案する。
我々のフレームワークは2つのステップでセマンティックセグメンテーションを実現する: 計画性に敏感なオーバーセグメンテーションとセマンティックセグメンテーション。
我々のアプローチは、境界品質とIoU(組合間)の平均で最先端の手法より優れています。
論文 参考訳(メタデータ) (2022-02-07T14:16:10Z) - End-to-End Segmentation via Patch-wise Polygons Prediction [93.91375268580806]
先頭のセグメンテーション法は、出力マップをピクセルグリッドとして表現する。
画像パッチ毎に対象のエッジがモデル化される別の表現を、パッチごとのラベル確率と結合した$k$の頂点を持つポリゴンとして検討する。
論文 参考訳(メタデータ) (2021-12-05T10:42:40Z) - PSGR: Pixel-wise Sparse Graph Reasoning for COVID-19 Pneumonia
Segmentation in CT Images [83.26057031236965]
画像中の新型コロナウイルス感染領域セグメンテーションの長距離依存性のモデリングを強化するために,PSGRモジュールを提案する。
PSGRモジュールは不正確なピクセルからノードへの投影を回避し、グローバルな推論のために各ピクセル固有の情報を保存する。
このソリューションは、3つの公開データセット上の4つの広く使われているセグメンテーションモデルに対して評価されている。
論文 参考訳(メタデータ) (2021-08-09T04:58:23Z) - ContourRender: Detecting Arbitrary Contour Shape For Instance
Segmentation In One Pass [48.57232627854642]
一方のパスにおける輪郭点の回帰の難しさは、滑らかな輪郭をポリゴンに識別する際のあいまいさが主な原因である。
あいまいさに対処するために,textbfContourRender という新しい差別化可能なレンダリング方式を提案する。
まず、可逆形状シグネチャによって生成された輪郭を予測し、それから、より安定したシルエットで輪郭を最適化し、それを輪郭メッシュに変換してメッシュを2Dマップにレンダリングする。
論文 参考訳(メタデータ) (2021-06-07T07:23:03Z) - Polygonal Point Set Tracking [50.445151155209246]
本稿では,学習に基づく多角形点集合追跡手法を提案する。
私たちのゴールは、ターゲットの輪郭上の対応する点を追跡することです。
本稿では,部分歪みとテキストマッピングに対する本手法の視覚効果について述べる。
論文 参考訳(メタデータ) (2021-05-30T17:12:36Z) - BoundarySqueeze: Image Segmentation as Boundary Squeezing [104.43159799559464]
本研究では,オブジェクトとシーンの微細な高画質画像分割のための新しい手法を提案する。
形態素画像処理技術による拡張と浸食に着想を得て,画素レベルのセグメンテーション問題をスクイーズ対象境界として扱う。
提案手法は,COCO,Cityscapesのインスタンス・セグメンテーション・セグメンテーション・セグメンテーションにおいて大きく向上し,同一条件下での精度・速度ともに従来のPointRendよりも優れていた。
論文 参考訳(メタデータ) (2021-05-25T04:58:51Z) - Contour Loss for Instance Segmentation via k-step Distance
Transformation Image [5.02853371403908]
インスタンスセグメンテーションは、画像内のターゲットを特定し、各ターゲット領域をピクセルレベルでセグメンテーションすることを目指しています。
Mask R-CNNは、インスタンスセグメンテーションの古典的な方法ですが、その予測マスクは不明確で輪郭の近くで不正確です。
より正確なインスタンスセグメンテーションを保証できるcontour lossと呼ばれる新しい損失関数を提案する。
論文 参考訳(メタデータ) (2021-02-22T09:35:35Z) - Geometry Constrained Weakly Supervised Object Localization [55.17224813345206]
弱教師付きオブジェクトローカライゼーションのための幾何制約付きネットワークであるGC-Netを提案する。
検出器は、幾何学的形状を記述する係数の集合によって定義された物体の位置を予測する。
ジェネレータは、得られたマスクされた画像を入力として、オブジェクトとバックグラウンドの2つの補完的な分類タスクを実行する。
従来のアプローチとは対照的に、GC-Netはエンドツーエンドでトレーニングされ、後処理なしでオブジェクトの位置を予測する。
論文 参考訳(メタデータ) (2020-07-19T17:33:42Z) - Walk the Lines: Object Contour Tracing CNN for Contour Completion of
Ships [0.0]
我々は,最新の物体の輪郭検出結果を改善するために,新しい輪郭追跡アルゴリズムを開発した。
目標は、完全に閉じた幅1ピクセルの細かな物体の輪郭を実現することである。
We present the Walk the Lines (WtL) algorithm, a standard regression CNN to follow object contours。
論文 参考訳(メタデータ) (2020-04-14T15:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。