論文の概要: FCB-SwinV2 Transformer for Polyp Segmentation
- arxiv url: http://arxiv.org/abs/2302.01027v1
- Date: Thu, 2 Feb 2023 11:42:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 14:21:16.184326
- Title: FCB-SwinV2 Transformer for Polyp Segmentation
- Title(参考訳): ポリプセグメンテーション用FCB-SwinV2トランス
- Authors: Kerr Fitzgerald, Bogdan Matuszewski
- Abstract要約: 深層学習モデルを用いた大腸内視鏡ビデオフレーム内のポリプセグメンテーションは、臨床医のワークフローを自動化する可能性がある。
最近の最先端のディープラーニングポリープセグメンテーションモデルは、並列に動作する完全な畳み込みネットワークアーキテクチャとトランスフォーマーネットワークアーキテクチャの出力を組み合わせている。
本稿では,現在最先端のポリプセグメンテーションモデルであるFCBFormerの修正を提案する。
The performance of the FCB-SwinV2 Transformer are evaluation on the popular colonoscopy segmentation bench-marking datasets。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Polyp segmentation within colonoscopy video frames using deep learning models
has the potential to automate the workflow of clinicians. This could help
improve the early detection rate and characterization of polyps which could
progress to colorectal cancer. Recent state-of-the-art deep learning polyp
segmentation models have combined the outputs of Fully Convolutional Network
architectures and Transformer Network architectures which work in parallel. In
this paper we propose modifications to the current state-of-the-art polyp
segmentation model FCBFormer. The transformer architecture of the FCBFormer is
replaced with a SwinV2 Transformer-UNET and minor changes to the Fully
Convolutional Network architecture are made to create the FCB-SwinV2
Transformer. The performance of the FCB-SwinV2 Transformer is evaluated on the
popular colonoscopy segmentation bench-marking datasets Kvasir-SEG and
CVC-ClinicDB. Generalizability tests are also conducted. The FCB-SwinV2
Transformer is able to consistently achieve higher mDice scores across all
tests conducted and therefore represents new state-of-the-art performance.
Issues found with how colonoscopy segmentation model performance is evaluated
within literature are also re-ported and discussed. One of the most important
issues identified is that when evaluating performance on the CVC-ClinicDB
dataset it would be preferable to ensure no data leakage from video sequences
occurs during the training/validation/test data partition.
- Abstract(参考訳): 深層学習モデルを用いた大腸内視鏡ビデオフレーム内のポリプセグメンテーションは、臨床医のワークフローを自動化する可能性がある。
これにより、大腸癌に進展するポリプの早期検出率と特性が向上する可能性がある。
最近の最先端のディープラーニングポリープセグメンテーションモデルは、並列に動作する完全な畳み込みネットワークアーキテクチャとトランスフォーマーネットワークアーキテクチャの出力を組み合わせている。
本稿では,現在最先端のポリプセグメンテーションモデルであるFCBFormerの修正を提案する。
FCBFormer のトランスアーキテクチャは SwinV2 Transformer-UNET に置き換えられ、FCB-SwinV2 Transformer を作成するために完全な畳み込みネットワークアーキテクチャのマイナーな変更が行われた。
kvasir-segおよびcvc-clinicdbを用いてfcb-swinv2変圧器の性能評価を行った。
総合試験も行われている。
fcb-swinv2トランスは、すべてのテストで高いmdiceスコアを一貫して達成できるため、新たな最先端のパフォーマンスを示している。
文献内での大腸内視鏡的セグメンテーションモデルの性能評価に関する問題も再レポートされ議論されている。
CVC-ClinicDBデータセットのパフォーマンスを評価する場合、トレーニング/バリデーション/テストデータパーティション中に、ビデオシーケンスからのデータ漏洩が発生しないことを保証することが望ましい。
関連論文リスト
- ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - RTA-Former: Reverse Transformer Attention for Polyp Segmentation [1.383118997843137]
本稿では,エンコーダのバックボーンとしてトランスフォーマーモデルを応用し,デコーダの逆アテンション(RA)をデコーダのトランスフォーマーステージに適応させ,エッジセグメンテーションを強化する新しいネットワークRTA-Formerを提案する。
実験の結果、RTA-Formerは5つのpolypセグメンテーションデータセットで最先端(SOTA)のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-01-22T03:09:00Z) - ConvFormer: Plug-and-Play CNN-Style Transformers for Improving Medical
Image Segmentation [10.727162449071155]
我々はCNNスタイルのトランスフォーマー(ConvFormer)を構築し、より注意収束を促進し、セグメンテーション性能を向上させる。
位置埋め込みとトークン化とは対照的に、ConvFormerは2D畳み込みと最大プーリングを採用して位置情報の保存と特徴サイズの縮小を実現している。
論文 参考訳(メタデータ) (2023-09-09T02:18:17Z) - LAPFormer: A Light and Accurate Polyp Segmentation Transformer [6.352264764099531]
我々は,階層型トランスフォーマーエンコーダを用いてグローバルな特徴を抽出する,LAPFormerというエンコーダデコーダアーキテクチャを用いた新しいモデルを提案する。
提案するデコーダは,高スケールおよび低スケールから特徴を融合するプログレッシブ・フィーチャー・フュージョン・モジュールを含む。
ポリープセグメンテーションのための5つの人気のあるベンチマークデータセット上で、我々のモデルを検証した。
論文 参考訳(メタデータ) (2022-10-10T01:52:30Z) - FCN-Transformer Feature Fusion for Polyp Segmentation [12.62213319797323]
大腸内視鏡は大腸癌の早期発見のための金標準法として広く認められている。
大腸内視鏡画像におけるポリープのマニュアルセグメンテーションは時間を要する。
ポリプセグメンテーションの自動化におけるディープラーニングの利用が重要になっている。
論文 参考訳(メタデータ) (2022-08-17T15:31:06Z) - Cost Aggregation with 4D Convolutional Swin Transformer for Few-Shot
Segmentation [58.4650849317274]
Volumetric Aggregation with Transformers (VAT)は、数ショットセグメンテーションのためのコスト集約ネットワークである。
VATは、コスト集約が中心的な役割を果たすセマンティック対応のための最先端のパフォーマンスも達成する。
論文 参考訳(メタデータ) (2022-07-22T04:10:30Z) - ColonFormer: An Efficient Transformer based Method for Colon Polyp
Segmentation [1.181206257787103]
ColonFormer はエンコーダとデコーダのアーキテクチャで、長距離セマンティック情報をモデル化できる。
ColonFormerは、すべてのベンチマークデータセットで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-05-17T16:34:04Z) - nnFormer: Interleaved Transformer for Volumetric Segmentation [50.10441845967601]
本稿では,自己意図と畳み込みを実証的に組み合わせた,インターリーブアーキテクチャを備えた強力なセグメンテーションモデルであるnnFormerを紹介する。
nnFormerは、SynapseとACDCの2つの一般的なデータセットで、以前のTransformerベースのメソッドよりも大幅に改善されている。
論文 参考訳(メタデータ) (2021-09-07T17:08:24Z) - Visual Saliency Transformer [127.33678448761599]
RGBとRGB-Dの液状物体検出(SOD)のための、純粋な変圧器であるVST(Visual Saliency Transformer)に基づく新しい統一モデルを開発しました。
イメージパッチを入力として取り、トランスフォーマーを利用してイメージパッチ間のグローバルコンテキストを伝搬する。
実験結果から,RGBとRGB-D SODのベンチマークデータセットにおいて,本モデルが既存の最新結果を上回っていることが示された。
論文 参考訳(メタデータ) (2021-04-25T08:24:06Z) - Deep ensembles based on Stochastic Activation Selection for Polyp
Segmentation [82.61182037130406]
本研究は,大腸内視鏡検査における画像分割,特に正確なポリープ検出とセグメンテーションを扱う。
イメージセグメンテーションの基本アーキテクチャはエンコーダとデコーダで構成されている。
我々はデコーダのバックボーンを変更することで得られるDeepLabアーキテクチャのバリエーションを比較した。
論文 参考訳(メタデータ) (2021-04-02T02:07:37Z) - Rethinking Semantic Segmentation from a Sequence-to-Sequence Perspective
with Transformers [149.78470371525754]
セマンティックセグメンテーションをシーケンスからシーケンスへの予測タスクとして扱う。
具体的には、イメージをパッチのシーケンスとしてエンコードするために純粋なトランスをデプロイします。
トランスのすべての層でモデル化されたグローバルコンテキストにより、このエンコーダは、SETR(SEgmentation TRansformer)と呼ばれる強力なセグメンテーションモデルを提供するための単純なデコーダと組み合わせることができる。
SETRはADE20K(50.28% mIoU)、Pascal Context(55.83% mIoU)、およびCityscapesの競争力のある結果に関する最新技術を達成している。
論文 参考訳(メタデータ) (2020-12-31T18:55:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。