論文の概要: PnPNet: Pull-and-Push Networks for Volumetric Segmentation with Boundary
Confusion
- arxiv url: http://arxiv.org/abs/2312.08323v1
- Date: Wed, 13 Dec 2023 17:50:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 14:38:36.672636
- Title: PnPNet: Pull-and-Push Networks for Volumetric Segmentation with Boundary
Confusion
- Title(参考訳): PnPNet:境界拡散を伴う体積分割のためのプル・アンド・プッシュネットワーク
- Authors: Xin You, Ming Ding, Minghui Zhang, Hanxiao Zhang, Yi Yu, Jie Yang, Yun
Gu
- Abstract要約: U字型ネットワークは境界形状制約の欠如によりこの課題を効果的に解決できない。
隣接領域の相互作用ダイナミクスを包含することで境界生成を再認識する。
Netの中核成分は、境界領域を絞り込むプッシュとプルの枝を含む。
- 参考スコア(独自算出の注目度): 25.12551124399544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Precise boundary segmentation of volumetric images is a critical task for
image-guided diagnosis and computer-assisted intervention, especially for
boundary confusion in clinical practice. However, U-shape networks cannot
effectively resolve this challenge due to the lack of boundary shape
constraints. Besides, existing methods of refining boundaries overemphasize the
slender structure, which results in the overfitting phenomenon due to networks'
limited abilities to model tiny objects. In this paper, we reconceptualize the
mechanism of boundary generation by encompassing the interaction dynamics with
adjacent regions. Moreover, we propose a unified network termed PnPNet to model
shape characteristics of the confused boundary region. Core ingredients of
PnPNet contain the pushing and pulling branches. Specifically, based on
diffusion theory, we devise the semantic difference module (SDM) from the
pushing branch to squeeze the boundary region. Explicit and implicit
differential information inside SDM significantly boost representation
abilities for inter-class boundaries. Additionally, motivated by the K-means
algorithm, the class clustering module (CCM) from the pulling branch is
introduced to stretch the intersected boundary region. Thus, pushing and
pulling branches will shrink and enlarge the boundary uncertainty respectively.
They furnish two adversarial forces to promote models to output a more precise
delineation of boundaries. We carry out experiments on three challenging public
datasets and one in-house dataset, containing three types of boundary confusion
in model predictions. Experimental results demonstrate the superiority of
PnPNet over other segmentation networks, especially on evaluation metrics of HD
and ASSD. Besides, pushing and pulling branches can serve as plug-and-play
modules to enhance classic U-shape baseline models. Codes are available.
- Abstract(参考訳): ボリューム画像の正確な境界分割は画像誘導診断とコンピュータ支援介入、特に臨床における境界混乱にとって重要な課題である。
しかし、境界形状制約の欠如により、U字型ネットワークはこの問題を効果的に解決できない。
さらに、境界を精製する既存の方法は細い構造を過度に強調し、小さな物体をモデル化するネットワークの限られた能力のために過度に適合する現象をもたらす。
本稿では,隣接領域との相互作用ダイナミクスを包含することで境界生成機構を再認識する。
さらに,混在境界領域の形状特性をモデル化するためのPnPNetと呼ばれる統一ネットワークを提案する。
PnPNetの中核成分は、プッシュとプルの分岐を含む。
具体的には、拡散理論に基づいて、押出し枝から意味差分モジュール(SDM)を考案し、境界領域を絞る。
SDM内の明示的および暗黙的な差分情報はクラス間境界の表現能力を著しく向上させる。
さらに、K-meansアルゴリズムによって動機付けられたプル分岐からのクラスクラスタリングモジュール(CCM)を導入し、交差する境界領域を拡大する。
したがって、プッシュ分岐とプル分岐はそれぞれ境界の不確かさを縮小し、拡大する。
彼らは2つの敵の力を与え、より正確な境界線を出力するモデルを推進した。
モデル予測における3種類の境界混乱を含む,3つの難解な公開データセットと1つの社内データセットについて実験を行った。
実験の結果、pnpnetは他のセグメンテーションネットワーク、特にhdとasdの評価指標よりも優れていることが示された。
さらに、ブランチのプッシュとプルはプラグアンドプレイモジュールとして機能し、古典的なu字型のベースラインモデルを強化する。
コードは利用可能。
関連論文リスト
- Temporal Action Localization with Enhanced Instant Discriminability [66.76095239972094]
時間的行動検出(TAD)は、すべての行動境界とその対応するカテゴリを、トリミングされていないビデオで検出することを目的としている。
本稿では,既存の手法による動作境界の不正確な予測を解決するために,TriDetという一段階のフレームワークを提案する。
実験結果から,複数のTADデータセット上でのTriDetの堅牢性と最先端性能が示された。
論文 参考訳(メタデータ) (2023-09-11T16:17:50Z) - A bioinspired three-stage model for camouflaged object detection [8.11866601771984]
本稿では,1回の繰り返しで粗い部分分割を可能にする3段階モデルを提案する。
本モデルでは, 3つのデコーダを用いて, サブサンプル特徴, 収穫特徴, および高解像度のオリジナル特徴を逐次処理する。
我々のネットワークは、不要な複雑さを伴わずに最先端のCNNベースのネットワークを上回る。
論文 参考訳(メタデータ) (2023-05-22T02:01:48Z) - Semantic Diffusion Network for Semantic Segmentation [1.933681537640272]
セマンティック境界認識を強化する演算子レベルのアプローチを導入する。
意味拡散ネットワーク(SDN)と呼ばれる新しい学習可能なアプローチを提案する。
我々のSDNは、元の機能からクラス間境界強化機能への微分可能なマッピングを構築することを目的としています。
論文 参考訳(メタデータ) (2023-02-04T01:39:16Z) - Push-the-Boundary: Boundary-aware Feature Propagation for Semantic
Segmentation of 3D Point Clouds [0.5249805590164901]
本研究では,オブジェクト境界近傍のセマンティックセグメンテーションを改善するための境界対応特徴伝搬機構を提案する。
1つの共有エンコーダで、ネットワークは、(i)境界ローカライゼーション、(ii)オブジェクトの内部を指す方向の予測、(iii)セマンティックセグメンテーションを3つの並列ストリームで出力する。
提案手法は境界誤差を低減することによって一貫した改善をもたらす。
論文 参考訳(メタデータ) (2022-12-23T15:42:01Z) - SpatioTemporal Focus for Skeleton-based Action Recognition [66.8571926307011]
グラフ畳み込みネットワーク(GCN)は骨格に基づく行動認識において広く採用されている。
近年提案されている骨格に基づく行動認識法の性能は以下の要因によって制限されていると論じる。
近年の注目機構に着想を得て,アクション関連関係情報を取得するためのマルチグラインド・コンテキスト集中モジュール MCF を提案する。
論文 参考訳(メタデータ) (2022-03-31T02:45:24Z) - Contrastive Boundary Learning for Point Cloud Segmentation [81.7289734276872]
本稿では,ポイントクラウドセグメンテーションのための新しい対照的な境界学習フレームワークを提案する。
実験により、CBLは、異なるベースラインを一貫して改善し、バウンダリにおける魅力的なパフォーマンスを達成するのに役立ちます。
論文 参考訳(メタデータ) (2022-03-10T10:08:09Z) - Boundary Guided Context Aggregation for Semantic Segmentation [23.709865471981313]
我々は、画像の全体的意味理解を促進するために、コンテキストアグリゲーションのための重要なガイダンスとして境界を利用する。
我々はCityscapesとADE20Kデータベースに関する広範な実験を行い、最先端の手法で同等の結果を得る。
論文 参考訳(メタデータ) (2021-10-27T17:04:38Z) - Crowd Counting via Perspective-Guided Fractional-Dilation Convolution [75.36662947203192]
本稿では,PFDNetと呼ばれる新しい畳み込みニューラルネットワークを用いた群集カウント手法を提案する。
連続スケールの変動をモデル化することにより、提案したPFDNetは、異なる空間位置に対応するための適切な分数拡張カーネルを選択することができる。
これは、個々の代表スケールのみを考慮した最先端技術の柔軟性を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-08T07:57:00Z) - Active Boundary Loss for Semantic Segmentation [58.72057610093194]
本稿では,セマンティックセグメンテーションのための新しいアクティブ境界損失を提案する。
エンド・ツー・エンドのトレーニングにおいて、予測境界とグランド・トゥルース・バウンダリのアライメントを徐々に促進することができる。
実験結果から, アクティブ境界損失によるトレーニングは, 境界Fスコアと平均インターセクションオーバ・ユニオンを効果的に改善できることが示された。
論文 参考訳(メタデータ) (2021-02-04T15:47:54Z) - Hold me tight! Influence of discriminative features on deep network
boundaries [63.627760598441796]
本稿では,データセットの特徴と,サンプルから決定境界までの距離を関連付ける新しい視点を提案する。
これにより、トレーニングサンプルの位置を慎重に調整し、大規模ビジョンデータセットでトレーニングされたCNNの境界における誘発された変化を測定することができる。
論文 参考訳(メタデータ) (2020-02-15T09:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。