論文の概要: Contour Flow Constraint: Preserving Global Shape Similarity for Deep Learning based Image Segmentation
- arxiv url: http://arxiv.org/abs/2504.09384v1
- Date: Sun, 13 Apr 2025 00:34:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:52:11.778680
- Title: Contour Flow Constraint: Preserving Global Shape Similarity for Deep Learning based Image Segmentation
- Title(参考訳): 輪郭流の制約:ディープラーニングに基づく画像分割のためのグローバルな形状類似性を保存する
- Authors: Shengzhe Chen, Zhaoxuan Dong, Jun Liu,
- Abstract要約: 本稿では,2つの形状が等価な輪郭を示すという前提に基づいて,大域的な形状類似性の概念を提案する。
本稿では,この制約をディープニューラルネットワークと統合するための2つの実装を提案する。
CFSSnetは、セグメント化ノイズ汚染画像におけるロバストさと、グローバルな形状の類似性を維持する固有の能力を示す。
- 参考スコア(独自算出の注目度): 3.581887371751499
- License:
- Abstract: For effective image segmentation, it is crucial to employ constraints informed by prior knowledge about the characteristics of the areas to be segmented to yield favorable segmentation outcomes. However, the existing methods have primarily focused on priors of specific properties or shapes, lacking consideration of the general global shape similarity from a Contour Flow (CF) perspective. Furthermore, naturally integrating this contour flow prior image segmentation model into the activation functions of deep convolutional networks through mathematical methods is currently unexplored. In this paper, we establish a concept of global shape similarity based on the premise that two shapes exhibit comparable contours. Furthermore, we mathematically derive a contour flow constraint that ensures the preservation of global shape similarity. We propose two implementations to integrate the constraint with deep neural networks. Firstly, the constraint is converted to a shape loss, which can be seamlessly incorporated into the training phase for any learning-based segmentation framework. Secondly, we add the constraint into a variational segmentation model and derive its iterative schemes for solution. The scheme is then unrolled to get the architecture of the proposed CFSSnet. Validation experiments on diverse datasets are conducted on classic benchmark deep network segmentation models. The results indicate a great improvement in segmentation accuracy and shape similarity for the proposed shape loss, showcasing the general adaptability of the proposed loss term regardless of specific network architectures. CFSSnet shows robustness in segmenting noise-contaminated images, and inherent capability to preserve global shape similarity.
- Abstract(参考訳): 画像分割を効果的に行うためには,分割対象領域の特徴を事前知識で把握した制約を用いることが重要である。
しかし、既存の手法は主に特定の特性や形状の先行に焦点を合わせており、コンターフロー(CF)の観点からの一般的な大域的な形状の類似性は考慮されていない。
さらに、この輪郭流先行画像分割モデルを数学的手法による深部畳み込みネットワークの活性化関数に自然に組み込むことは、現在未定である。
本稿では,2つの形状が等価な輪郭を示すという前提に基づいて,大域的な形状類似性の概念を確立する。
さらに,大域的な形状の類似性を維持するための輪郭流の制約を数学的に導出する。
本稿では,この制約をディープニューラルネットワークと統合するための2つの実装を提案する。
まず、制約を形状損失に変換し、学習ベースのセグメンテーションフレームワークのトレーニングフェーズにシームレスに組み込むことができる。
次に,変数分割モデルに制約を加え,その反復的スキームを導出する。
提案されたCFSSnetのアーキテクチャを取得するために、このスキームはアンロールされる。
従来のベンチマークディープネットワークセグメンテーションモデルを用いて,多様なデータセットに対する検証実験を行った。
その結果, ネットワークアーキテクチャによらず, 提案した損失項の一般適応性を示すことにより, セグメント化精度と形状類似性が大きく向上したことを示す。
CFSSnetは、セグメント化ノイズ汚染画像におけるロバストさと、グローバルな形状の類似性を維持する固有の能力を示す。
関連論文リスト
- SketchYourSeg: Mask-Free Subjective Image Segmentation via Freehand Sketches [116.1810651297801]
SketchYourSegは、主観的なイメージセグメンテーションのための強力なクエリモダリティとして、フリーハンドスケッチを確立している。
我々の評価は、様々なベンチマークで既存のアプローチよりも優れた性能を示している。
論文 参考訳(メタデータ) (2025-01-27T13:07:51Z) - Segmenting objects with Bayesian fusion of active contour models and convnet priors [0.729597981661727]
本稿では,自然資源モニタリング(NRM)画像を対象とした新しい事例分割手法を提案する。
我々は、個々の物体の輪郭を学習する際に、形状、位置、位置の先行を組み込むベイズ最大値後部推論として問題を定式化する。
実験では、個々の枯木樹冠と正確な輪郭を分割する、挑戦的で現実的な問題に取り組む。
論文 参考訳(メタデータ) (2024-10-09T20:36:43Z) - Physically Feasible Semantic Segmentation [58.17907376475596]
最先端セマンティックセグメンテーションモデルは通常、データ駆動方式で最適化される。
この純粋にデータ駆動のパラダイムは、特にトレーニング中に遭遇した領域から入力画像の領域がシフトした場合、しばしば不条理なセグメンテーションにつながる。
我々の方法であるPhyFea(PhyFea)は、まず、オフラインデータ駆動方式で手元に設定したセグメンテーショントレーニングから空間クラス関係を規定する明示的な制約を抽出し、これらの制約の違反を罰する形態的かつ差別的な損失を強制する。
論文 参考訳(メタデータ) (2024-08-26T22:39:08Z) - Early Fusion of Features for Semantic Segmentation [10.362589129094975]
本稿では,効率的な画像分割を実現するために,分類器ネットワークとリバースHRNetアーキテクチャを統合する新しいセグメンテーションフレームワークを提案する。
私たちの手法は、Mapillary Vistas、Cityscapes、CamVid、COCO、PASCAL-VOC2012など、いくつかのベンチマークデータセットで厳格にテストされています。
その結果,画像解析における様々な応用の可能性を示し,高いセグメンテーション精度を実現する上で,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-02-08T22:58:06Z) - Self-supervised Semantic Segmentation: Consistency over Transformation [3.485615723221064]
Inception Large Kernel Attention (I-LKA) モジュールをベースとしたロバストなフレームワークを統合した新しい自己教師型アルゴリズム textbfS$3$-Net を提案する。
我々は、変形可能な畳み込みを積分成分として利用し、優れた物体境界定義のための歪み変形を効果的に捕捉し、デライン化する。
皮膚病変および肺臓器の分節タスクに関する実験結果から,SOTA法と比較して,本手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-08-31T21:28:46Z) - Denoise and Contrast for Category Agnostic Shape Completion [48.66519783934386]
本稿では,自己スーパービジョンのパワーを利用して3dポイントのクラウド補完を行うディープラーニングモデルを提案する。
Denoising Pretextタスクは、高レベルのセマンティクスから切り離された、必要なローカルキューをネットワークに提供する。
コントラスト学習は、異なる欠落部分を持つ同じ形状の変種間の一致を最大化する。
論文 参考訳(メタデータ) (2021-03-30T20:33:24Z) - Commonality-Parsing Network across Shape and Appearance for Partially
Supervised Instance Segmentation [71.59275788106622]
そこで本稿では,マスク付分類から新しい分類へ一般化可能な,クラス非依存の共通性について考察する。
本モデルでは,COCOデータセット上のサンプルセグメンテーションにおける部分教師付き設定と少数ショット設定の両方において,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-24T07:23:44Z) - Shape-aware Semi-supervised 3D Semantic Segmentation for Medical Images [24.216869988183092]
本稿では,豊富なラベルのないデータを活用し,セグメント化出力に幾何学的形状制約を課す,形状認識型半教師付きセグメンテーション戦略を提案する。
物体表面のセマンティックセグメンテーションと符号付き距離マップDMを共同で予測するマルチタスクディープネットワークを開発した。
実験の結果,提案手法は形状推定を改良し,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-21T11:44:52Z) - Neural Subdivision [58.97214948753937]
本稿では,データ駆動型粗粒度モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
すべてのローカルメッシュパッチで同じネットワーク重みのセットを最適化するため、特定の入力メッシュや固定属、カテゴリに制約されないアーキテクチャを提供します。
単一の高分解能メッシュでトレーニングしても,本手法は新規な形状に対して合理的な区分を生成する。
論文 参考訳(メタデータ) (2020-05-04T20:03:21Z) - Deep Semantic Matching with Foreground Detection and Cycle-Consistency [103.22976097225457]
深層ネットワークに基づく弱い教師付きセマンティックマッチングに対処する。
本研究では,背景乱れの影響を抑えるために,前景領域を明示的に推定する。
複数の画像にまたがって予測変換を強制し、幾何的に可視かつ一貫したサイクル一貫性の損失を発生させる。
論文 参考訳(メタデータ) (2020-03-31T22:38:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。