論文の概要: FCN-Transformer Feature Fusion for Polyp Segmentation
- arxiv url: http://arxiv.org/abs/2208.08352v1
- Date: Wed, 17 Aug 2022 15:31:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 12:41:22.636873
- Title: FCN-Transformer Feature Fusion for Polyp Segmentation
- Title(参考訳): ポリプセグメンテーションのためのfcn-transformer feature fusion
- Authors: Edward Sanderson and Bogdan J. Matuszewski
- Abstract要約: 大腸内視鏡は大腸癌の早期発見のための金標準法として広く認められている。
大腸内視鏡画像におけるポリープのマニュアルセグメンテーションは時間を要する。
ポリプセグメンテーションの自動化におけるディープラーニングの利用が重要になっている。
- 参考スコア(独自算出の注目度): 12.62213319797323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Colonoscopy is widely recognised as the gold standard procedure for the early
detection of colorectal cancer (CRC). Segmentation is valuable for two
significant clinical applications, namely lesion detection and classification,
providing means to improve accuracy and robustness. The manual segmentation of
polyps in colonoscopy images is time-consuming. As a result, the use of deep
learning (DL) for automation of polyp segmentation has become important.
However, DL-based solutions can be vulnerable to overfitting and the resulting
inability to generalise to images captured by different colonoscopes. Recent
transformer-based architectures for semantic segmentation both achieve higher
performance and generalise better than alternatives, however typically predict
a segmentation map of $\frac{h}{4}\times\frac{w}{4}$ spatial dimensions for a
$h\times w$ input image. To this end, we propose a new architecture for
full-size segmentation which leverages the strengths of a transformer in
extracting the most important features for segmentation in a primary branch,
while compensating for its limitations in full-size prediction with a secondary
fully convolutional branch. The resulting features from both branches are then
fused for final prediction of a $h\times w$ segmentation map. We demonstrate
our method's state-of-the-art performance with respect to the mDice, mIoU,
mPrecision, and mRecall metrics, on both the Kvasir-SEG and CVC-ClinicDB
dataset benchmarks. Additionally, we train the model on each of these datasets
and evaluate on the other to demonstrate its superior generalisation
performance.
- Abstract(参考訳): 大腸内視鏡検査は大腸癌(CRC)の早期発見のための金標準法として広く認められている。
セグメンテーションは2つの重要な臨床応用、すなわち病変の検出と分類に有用であり、精度と堅牢性を向上させる手段を提供する。
大腸内視鏡画像におけるポリープのマニュアルセグメンテーションは時間を要する。
その結果,ポリプセグメンテーションの自動化におけるディープラーニング(DL)の利用が重要になった。
しかし、DLベースのソリューションはオーバーフィッティングに脆弱であり、結果として異なる大腸内視鏡で撮影された画像に一般化できない。
セマンティックセグメンテーションのための最近のトランスフォーマーベースのアーキテクチャは、代替よりも高い性能と一般化を達成するが、通常は$\frac{h}{4}\times\frac{w}{4}$空間次元のセグメンテーションマップを$h\times w$入力画像に対して予測する。
そこで本研究では,完全畳み込み分岐を用いた全サイズ予測における限界を補いつつ,一次分岐におけるセグメント化の最も重要な特徴を抽出する上でトランスフォーマの強みを生かしたフルサイズセグメンテーションのための新しいアーキテクチャを提案する。
両ブランチから得られた機能は、$h\times w$セグメンテーションマップの最終予測のために融合される。
Kvasir-SEG と CVC-ClinicDB のベンチマークを用いて,mDice,mIoU,mPrecision,mRecall の計測値に関する最先端性能を示す。
さらに,これらのデータセット上でモデルをトレーニングし,その優れた一般化性能を示す。
関連論文リスト
- Prompting Segment Anything Model with Domain-Adaptive Prototype for Generalizable Medical Image Segmentation [49.5901368256326]
医用画像のセグメンテーションにおけるセグメンテーションモデル(DAPSAM)の微調整のための新しいドメイン適応型プロンプトフレームワークを提案する。
DAPSAMは,2つの医療画像分割タスクにおいて,異なるモダリティで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-19T07:28:33Z) - ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - Adaptation of Distinct Semantics for Uncertain Areas in Polyp Segmentation [11.646574658785362]
本研究は,ポリプ不確定領域に対する識別意味論の適応という新しいアーキテクチャを提示する。
ADSNetは、未分類の詳細を修正し、最終段階で消滅し、検出されない弱い特徴を回復する。
実験により,ポリプ画像分割作業における他の技術と比較して,セグメンテーション性能が向上することを示す。
論文 参考訳(メタデータ) (2024-05-13T07:41:28Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Edge-aware Feature Aggregation Network for Polyp Segmentation [40.3881565207086]
本研究では,ポリプセグメンテーションのためのエッジ対応特徴集約ネットワーク(EFA-Net)を提案する。
EFA-Netは、ポリプセグメンテーションの性能を高めるために、クロスレベルとマルチスケールの機能を完全に活用することができる。
広く採用されている5つの大腸内視鏡データセットの実験結果から,我々のEFA-Netは,一般化と有効性の観点から,最先端のポリプセグメンテーション法より優れていることが示された。
論文 参考訳(メタデータ) (2023-09-19T11:09:38Z) - Interactive Segmentation as Gaussian Process Classification [58.44673380545409]
クリックベースのインタラクティブセグメンテーション(IS)は、ユーザインタラクション下で対象オブジェクトを抽出することを目的としている。
現在のディープラーニング(DL)ベースの手法のほとんどは、主にセマンティックセグメンテーションの一般的なパイプラインに従っている。
本稿では,各画像上でガウス過程(GP)に基づく画素単位のバイナリ分類モデルとしてISタスクを定式化することを提案する。
論文 参考訳(メタデータ) (2023-02-28T14:01:01Z) - FCB-SwinV2 Transformer for Polyp Segmentation [0.0]
深層学習モデルを用いた大腸内視鏡ビデオフレーム内のポリプセグメンテーションは、臨床医のワークフローを自動化する可能性がある。
最近の最先端のディープラーニングポリープセグメンテーションモデルは、並列に動作する完全な畳み込みネットワークアーキテクチャとトランスフォーマーネットワークアーキテクチャの出力を組み合わせている。
本稿では,現在最先端のポリプセグメンテーションモデルであるFCBFormerの修正を提案する。
The performance of the FCB-SwinV2 Transformer are evaluation on the popular colonoscopy segmentation bench-marking datasets。
論文 参考訳(メタデータ) (2023-02-02T11:42:26Z) - Deep ensembles based on Stochastic Activation Selection for Polyp
Segmentation [82.61182037130406]
本研究は,大腸内視鏡検査における画像分割,特に正確なポリープ検出とセグメンテーションを扱う。
イメージセグメンテーションの基本アーキテクチャはエンコーダとデコーダで構成されている。
我々はデコーダのバックボーンを変更することで得られるDeepLabアーキテクチャのバリエーションを比較した。
論文 参考訳(メタデータ) (2021-04-02T02:07:37Z) - PraNet: Parallel Reverse Attention Network for Polyp Segmentation [155.93344756264824]
大腸内視鏡画像の高精度なポリープ分割のための並列リバースアテンションネットワーク(PraNet)を提案する。
並列部分復号器(PPD)を用いて,まず高層層に特徴を集約する。
さらに,エリアとバウンダリの関連性を確立するために,リバースアテンション(RA)モジュールを用いて境界キューをマイニングする。
論文 参考訳(メタデータ) (2020-06-13T08:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。