論文の概要: Contour Loss for Instance Segmentation via k-step Distance
Transformation Image
- arxiv url: http://arxiv.org/abs/2102.10854v1
- Date: Mon, 22 Feb 2021 09:35:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-23 14:56:49.199690
- Title: Contour Loss for Instance Segmentation via k-step Distance
Transformation Image
- Title(参考訳): k段階距離変換画像によるインスタンスセグメンテーションの輪郭損失
- Authors: Xiaolong Guo, Xiaosong Lan, Kunfeng Wang, Shuxiao Li
- Abstract要約: インスタンスセグメンテーションは、画像内のターゲットを特定し、各ターゲット領域をピクセルレベルでセグメンテーションすることを目指しています。
Mask R-CNNは、インスタンスセグメンテーションの古典的な方法ですが、その予測マスクは不明確で輪郭の近くで不正確です。
より正確なインスタンスセグメンテーションを保証できるcontour lossと呼ばれる新しい損失関数を提案する。
- 参考スコア(独自算出の注目度): 5.02853371403908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Instance segmentation aims to locate targets in the image and segment each
target area at pixel level, which is one of the most important tasks in
computer vision. Mask R-CNN is a classic method of instance segmentation, but
we find that its predicted masks are unclear and inaccurate near contours. To
cope with this problem, we draw on the idea of contour matching based on
distance transformation image and propose a novel loss function, called contour
loss. Contour loss is designed to specifically optimize the contour parts of
the predicted masks, thus can assure more accurate instance segmentation. In
order to make the proposed contour loss to be jointly trained under modern
neural network frameworks, we design a differentiable k-step distance
transformation image calculation module, which can approximately compute
truncated distance transformation images of the predicted mask and
corresponding ground-truth mask online. The proposed contour loss can be
integrated into existing instance segmentation methods such as Mask R-CNN, and
combined with their original loss functions without modification of the
inference network structures, thus has strong versatility. Experimental results
on COCO show that contour loss is effective, which can further improve instance
segmentation performances.
- Abstract(参考訳): インスタンスセグメンテーションは、画像中のターゲットを特定し、各ターゲット領域をピクセルレベルでセグメンテーションすることを目的としており、これはコンピュータビジョンにおいて最も重要なタスクの1つである。
Mask R-CNNは、インスタンスセグメンテーションの古典的な方法ですが、その予測マスクが不明確で輪郭付近で不正確であることが分かりました。
この問題に対処するために,距離変換画像に基づく輪郭マッチングのアイデアと,輪郭損失と呼ばれる新たな損失関数を提案する。
輪郭損失は予測マスクの輪郭部を特に最適化するよう設計されており、より正確なインスタンスセグメンテーションを保証することができる。
提案する輪郭損失を現代のニューラルネットワークフレームワークで共同訓練するために,予測されたマスクと対応する地対面マスクの切り離し距離変換画像を概ね計算できる,微分可能なkステップ距離変換画像計算モジュールを設計した。
提案する輪郭損失はマスクr-cnnのような既存のインスタンス分割法に統合でき、推論ネットワーク構造を変更せずに元の損失関数と組み合わせることで、高い汎用性を有する。
COCO実験の結果、輪郭損失が効果的であることを示し、インスタンスセグメンテーション性能をさらに向上させることができる。
関連論文リスト
- Contour-weighted loss for class-imbalanced image segmentation [2.183832403223894]
画像のセグメンテーションは、ほとんど全ての医療画像解析において、自動解釈と処理において極めて重要である。
クラス内とクラス間のデータ不均衡のため、イメージセグメンテーションを実行することはしばしば困難である。
本稿では,コンパクトで効果的な輪郭重み付き損失関数を用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-07T07:43:52Z) - Rasterized Edge Gradients: Handling Discontinuities Differentiably [25.85191317712521]
近似を描画する不連続点の勾配を計算するための新しい手法を提案する。
本手法は, 慎重に設計した近似戦略により, 従来の複雑な問題をエレガントに単純化する。
我々は,人間の頭部のシーン再構成において,カメラ画像とセグメンテーションマスクのハンドリングを実演する。
論文 参考訳(メタデータ) (2024-05-03T22:42:00Z) - Variance-insensitive and Target-preserving Mask Refinement for
Interactive Image Segmentation [68.16510297109872]
ポイントベースのインタラクティブなイメージセグメンテーションは、セマンティックセグメンテーションや画像編集といったアプリケーションにおけるマスクアノテーションの負担を軽減することができる。
本稿では,ユーザ入力の少ないセグメンテーション品質を向上する新しい手法である可変無感・ターゲット保存マスクリファインメントを提案する。
GrabCut、バークレー、SBD、DAVISデータセットの実験は、インタラクティブな画像セグメンテーションにおける我々の手法の最先端性能を実証している。
論文 参考訳(メタデータ) (2023-12-22T02:31:31Z) - PairingNet: A Learning-based Pair-searching and -matching Network for
Image Fragments [6.694162736590122]
本稿では,難解な修復問題を解決するために,学習に基づくイメージフラグメントのペア探索とマッチング手法を提案する。
提案するネットワークは,ペア探索の精度に優れ,マッチングエラーを低減し,計算時間を大幅に短縮する。
論文 参考訳(メタデータ) (2023-12-14T07:43:53Z) - SEMI-PointRend: Improved Semiconductor Wafer Defect Classification and
Segmentation as Rendering [0.31317409221921133]
PointRendはコンピュータグラフィックスにおける画像レンダリングにインスパイアされた反復セグメンテーションアルゴリズムである。
SEMI-PointRend が Mask R-CNN を最大 18.8% 上回っていることを示す。
論文 参考訳(メタデータ) (2023-02-19T13:12:28Z) - Image Inpainting by End-to-End Cascaded Refinement with Mask Awareness [66.55719330810547]
任意の欠落領域を塗りつぶすことは、様々なマスクされた領域で有効な特徴を学ぶことは非自明だから難しい。
符号化フェーズにおける欠落領域のマルチスケール特徴を学習する新しいマスク対応インペイントソリューションを提案する。
私たちのフレームワークは、3つの公開データセットに関する広範な実験を通じて定量的および定性的に検証されます。
論文 参考訳(メタデータ) (2021-04-28T13:17:47Z) - Image Inpainting with Edge-guided Learnable Bidirectional Attention Maps [85.67745220834718]
不規則な穴の画像インペインティングを改善するためのエッジガイド学習可能な双方向注意マップ(Edge-LBAM)を紹介します。
当社のEdge-LBAMメソッドには、予測エッジによる構造認識マスク更新を含むデュアルプロシージャが含まれています。
広範な実験により,エッジlbamはコヒーレントな画像構造を生成し,色差やぼやけを防止できることがわかった。
論文 参考訳(メタデータ) (2021-04-25T07:25:16Z) - An Empirical Method to Quantify the Peripheral Performance Degradation
in Deep Networks [18.808132632482103]
畳み込みニューラルネットワーク(CNN)カーネルは、各畳み込み層に結合する。
より深いネットワークとストライドベースのダウンサンプリングを組み合わせることで、この領域の伝播は、画像の無視できない部分をカバーすることができる。
我々のデータセットは、高解像度の背景にオブジェクトを挿入することで構築され、画像境界に対してターゲットオブジェクトを特定の位置に配置するサブイメージを収穫することができる。
マスクR-CNNの動作を目標位置の選択にわたって探索することにより、画像境界付近、特に画像コーナーにおいて、パフォーマンス劣化の明確なパターンが明らかになる。
論文 参考訳(メタデータ) (2020-12-04T18:00:47Z) - Invariant Deep Compressible Covariance Pooling for Aerial Scene
Categorization [80.55951673479237]
本研究では,空気シーン分類におけるニュアンス変動を解決するために,新しい不変な深部圧縮性共分散プール (IDCCP) を提案する。
本研究では,公開空間画像データセットに関する広範な実験を行い,最先端の手法と比較して,この手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-11-11T11:13:07Z) - Category Level Object Pose Estimation via Neural Analysis-by-Synthesis [64.14028598360741]
本稿では、勾配に基づくフィッティング法とパラメトリックニューラルネットワーク合成モジュールを組み合わせる。
画像合成ネットワークは、ポーズ設定空間を効率的に分散するように設計されている。
本研究では,2次元画像のみから高精度に物体の向きを復元できることを実験的に示す。
論文 参考訳(メタデータ) (2020-08-18T20:30:47Z) - Multi-Margin based Decorrelation Learning for Heterogeneous Face
Recognition [90.26023388850771]
本稿では,超球面空間におけるデコリレーション表現を抽出するディープニューラルネットワーク手法を提案する。
提案するフレームワークは,不均一表現ネットワークとデコリレーション表現学習の2つのコンポーネントに分けることができる。
2つの難解な異種顔データベースに対する実験結果から,本手法は検証タスクと認識タスクの両方において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-05-25T07:01:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。