論文の概要: Polyp-SES: Automatic Polyp Segmentation with Self-Enriched Semantic Model
- arxiv url: http://arxiv.org/abs/2410.01210v1
- Date: Wed, 2 Oct 2024 03:34:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 22:28:32.889288
- Title: Polyp-SES: Automatic Polyp Segmentation with Self-Enriched Semantic Model
- Title(参考訳): Polyp-SES:自己富化セマンティックモデルによる自動ポリプセグメンテーション
- Authors: Quang Vinh Nguyen, Thanh Hoang Son Vo, Sae-Ryung Kang, Soo-Hyung Kim,
- Abstract要約: 本稿では,既存手法の制約に対処するため,自己富化セマンティックモデルを用いたAutomatic Polypを提案する。
まず、入力画像から一連の特徴を抽出し、ハイレベルな特徴をデコードし、初期セグメンテーションマスクを生成する。
提案する自己富化セマンティックモジュールを用いて,潜在的なセマンティクスを検索し,さらにセマンティクスを付加することで,コンテキスト理解のモデルを支援する。
- 参考スコア(独自算出の注目度): 7.424888086388194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic polyp segmentation is crucial for effective diagnosis and treatment in colonoscopy images. Traditional methods encounter significant challenges in accurately delineating polyps due to limitations in feature representation and the handling of variability in polyp appearance. Deep learning techniques, including CNN and Transformer-based methods, have been explored to improve polyp segmentation accuracy. However, existing approaches often neglect additional semantics, restricting their ability to acquire adequate contexts of polyps in colonoscopy images. In this paper, we propose an innovative method named ``Automatic Polyp Segmentation with Self-Enriched Semantic Model'' to address these limitations. First, we extract a sequence of features from an input image and decode high-level features to generate an initial segmentation mask. Using the proposed self-enriched semantic module, we query potential semantics and augment deep features with additional semantics, thereby aiding the model in understanding context more effectively. Extensive experiments show superior segmentation performance of the proposed method against state-of-the-art polyp segmentation baselines across five polyp benchmarks in both superior learning and generalization capabilities.
- Abstract(参考訳): 大腸内視鏡画像の有効診断と治療には,自動ポリープセグメンテーションが重要である。
従来の手法では、特徴表現の制限や、ポリプの外観における可変性の扱いなどにより、ポリプを正確に記述する上で重要な課題に直面している。
CNNやTransformerベースの手法を含むディープラーニング技術は,ポリプのセグメンテーション精度を向上させるために研究されている。
しかし、既存のアプローチは、しばしば追加の意味論を無視し、大腸内視鏡画像におけるポリプの適切なコンテキストを取得する能力を制限する。
本稿では,これらの制約に対処する「自己富化セマンティックモデルを用いた自動ポリプセグメンテーション」という革新的な手法を提案する。
まず、入力画像から一連の特徴を抽出し、ハイレベルな特徴をデコードし、初期セグメンテーションマスクを生成する。
提案する自己富化セマンティックモジュールを用いて,潜在的なセマンティクスを検索し,さらにセマンティクスを付加することで,コンテキスト理解のモデルを支援する。
広汎な実験により,提案手法は5つのPolypベンチマークにおいて,高度な学習能力と一般化能力の両方において,最先端のPolypセグメンテーションベースラインに対して優れたセグメンテーション性能を示す。
関連論文リスト
- Polyp-E: Benchmarking the Robustness of Deep Segmentation Models via Polyp Editing [32.30835026874521]
日常的な臨床実践では、臨床医は位置と大きさのばらつきの両方でポリープを識別する堅牢性を示す。
自動大腸内視鏡検査において,深部分割モデルが同等の堅牢性を達成できるかどうかは不明である。
本研究は,ポリプ上でのセグメンテーションモデルのロバスト性について,様々な属性と健全なサンプルを用いて評価することに焦点を当てる。
論文 参考訳(メタデータ) (2024-10-22T06:30:37Z) - EPPS: Advanced Polyp Segmentation via Edge Information Injection and Selective Feature Decoupling [5.453850739960517]
We propose a novel model named Edge-Prioritized Polyp (EPPS)。
具体的には,ポリプのエッジを正確に抽出することを目的としたエッジマッピングエンジン(EME)を組み込んだ。
また,Selective Feature Decoupler (SFD) と呼ばれるコンポーネントを導入し,モデルに対するノイズや外的特徴の影響を抑える。
論文 参考訳(メタデータ) (2024-05-20T07:41:04Z) - Multi-scale Information Sharing and Selection Network with Boundary Attention for Polyp Segmentation [10.152504573356413]
本稿では,多目的セグメンテーションタスクのためのマルチスケール情報共有選択ネットワーク(MISNet)を提案する。
5つのpolypセグメンテーションデータセットの実験により、MISNetはセグメンテーション結果の精度と明確性を改善した。
論文 参考訳(メタデータ) (2024-05-18T02:48:39Z) - Adaptation of Distinct Semantics for Uncertain Areas in Polyp Segmentation [11.646574658785362]
本研究は,ポリプ不確定領域に対する識別意味論の適応という新しいアーキテクチャを提示する。
ADSNetは、未分類の詳細を修正し、最終段階で消滅し、検出されない弱い特徴を回復する。
実験により,ポリプ画像分割作業における他の技術と比較して,セグメンテーション性能が向上することを示す。
論文 参考訳(メタデータ) (2024-05-13T07:41:28Z) - ECC-PolypDet: Enhanced CenterNet with Contrastive Learning for Automatic
Polyp Detection [88.4359020192429]
既存の手法では、計算コストのかかるコンテキストアグリゲーションが伴うか、ポリープの事前モデリングが欠如しているため、難解なケースでは性能が低下する。
本稿では,2段階のトレーニングとエンドツーエンド推論フレームワークである Enhanced CenterNet with Contrastive Learning (ECC-PolypDet) を提案する。
Box-assisted Contrastive Learning (BCL) は, クラス内差を最小限に抑え, 前庭ポリープと背景のクラス間差を最大化するため, 隠れポリープを捕捉する。
微調整段階におけるIoU誘導サンプル再重み付けの導入
論文 参考訳(メタデータ) (2024-01-10T07:03:41Z) - Lesion-aware Dynamic Kernel for Polyp Segmentation [49.63274623103663]
ポリープセグメンテーションのための障害対応動的ネットワーク(LDNet)を提案する。
従来のU字型エンコーダ・デコーダ構造であり、動的カーネル生成と更新スキームが組み込まれている。
この単純だが効果的なスキームは、我々のモデルに強力なセグメンテーション性能と一般化能力を与える。
論文 参考訳(メタデータ) (2023-01-12T09:53:57Z) - BoxPolyp:Boost Generalized Polyp Segmentation Using Extra Coarse
Bounding Box Annotations [79.17754846553866]
我々は、正確なマスクと余分な粗いボックスアノテーションをフル活用するための強化されたBoxPolypモデルを提案する。
実際には、従来のポリプセグメンテーションモデルの過度に適合する問題を緩和するためにボックスアノテーションが適用される。
提案手法は従来の最先端手法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2022-12-07T07:45:50Z) - Polyp-PVT: Polyp Segmentation with Pyramid Vision Transformers [124.01928050651466]
本稿では,Polyp-PVTと呼ばれる新しいタイプのPolypセグメンテーション手法を提案する。
提案モデルであるPolyp-PVTは,特徴の雑音を効果的に抑制し,その表現能力を大幅に向上させる。
論文 参考訳(メタデータ) (2021-08-16T07:09:06Z) - Automatic Polyp Segmentation via Multi-scale Subtraction Network [100.94922587360871]
臨床的には、正確なポリープセグメンテーションは大腸癌の早期発見に重要な情報を提供する。
既存のほとんどの手法はU字型構造に基づいており、デコーダで段階的に異なるレベルの特徴を融合させるために要素ワイド付加または結合を用いる。
大腸内視鏡画像からポリプを抽出するマルチスケールサブトラクションネットワーク(MSNet)を提案する。
論文 参考訳(メタデータ) (2021-08-11T07:54:07Z) - PraNet: Parallel Reverse Attention Network for Polyp Segmentation [155.93344756264824]
大腸内視鏡画像の高精度なポリープ分割のための並列リバースアテンションネットワーク(PraNet)を提案する。
並列部分復号器(PPD)を用いて,まず高層層に特徴を集約する。
さらに,エリアとバウンダリの関連性を確立するために,リバースアテンション(RA)モジュールを用いて境界キューをマイニングする。
論文 参考訳(メタデータ) (2020-06-13T08:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。