論文の概要: SwinVFTR: A Novel Volumetric Feature-learning Transformer for 3D OCT
Fluid Segmentation
- arxiv url: http://arxiv.org/abs/2303.09233v1
- Date: Thu, 16 Mar 2023 11:16:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 15:49:00.892859
- Title: SwinVFTR: A Novel Volumetric Feature-learning Transformer for 3D OCT
Fluid Segmentation
- Title(参考訳): SwinVFTR:3D OCT流体セグメンテーションのための新しいボリューム特徴学習変換器
- Authors: Sharif Amit Kamran, Khondker Fariha Hossain, Alireza Tavakkoli,
Stewart Lee Zuckerbrod, Kenton M. Sanders, Salah A. Baker
- Abstract要約: 3DボリュームCT画像の精密な流体分割のためのトランスフォーマーベースアーキテクチャであるSwinVFTRを提案する。
まず、チャネルワイドボリュームサンプリングを用いて、深さの異なるOCTボリュームのトレーニングを行う(Bスキャン)。
次に、エンコーダ内の新しいシフトウインドウトランスフォーマーブロックを使用して、流体領域のより優れたローカライゼーションとセグメンテーションを実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurately segmenting fluid in 3D volumetric optical coherence tomography
(OCT) images is a crucial yet challenging task for detecting eye diseases.
Traditional autoencoding-based segmentation approaches have limitations in
extracting fluid regions due to successive resolution loss in the encoding
phase and the inability to recover lost information in the decoding phase.
Although current transformer-based models for medical image segmentation
addresses this limitation, they are not designed to be applied out-of-the-box
for 3D OCT volumes, which have a wide-ranging channel-axis size based on
different vendor device and extraction technique. To address these issues, we
propose SwinVFTR, a new transformer-based architecture designed for precise
fluid segmentation in 3D volumetric OCT images. We first utilize a channel-wise
volumetric sampling for training on OCT volumes with varying depths (B-scans).
Next, the model uses a novel shifted window transformer block in the encoder to
achieve better localization and segmentation of fluid regions. Additionally, we
propose a new volumetric attention block for spatial and depth-wise attention,
which improves upon traditional residual skip connections. Consequently,
utilizing multi-class dice loss, the proposed architecture outperforms other
existing architectures on the three publicly available vendor-specific OCT
datasets, namely Spectralis, Cirrus, and Topcon, with mean dice scores of 0.72,
0.59, and 0.68, respectively. Additionally, SwinVFTR outperforms other
architectures in two additional relevant metrics, mean intersection-over-union
(Mean-IOU) and structural similarity measure (SSIM).
- Abstract(参考訳): 3Dボリューム光コヒーレンストモグラフィー(OCT)画像における流体の正確なセグメンテーションは、眼疾患を検出する上で重要な課題である。
従来の自己エンコーディングに基づくセグメンテーション手法は、符号化相における連続的な解像度損失と復号相における損失情報を復元できないことによる流体領域の抽出に制限がある。
現在の医療用画像セグメンテーションのトランスフォーマは、この制限に対処しているが、異なるベンダー装置と抽出技術に基づいて幅の広いチャネル軸サイズを持つ3d octボリュームのアウト・オブ・ザ・ボックスを適用するようには設計されていない。
これらの問題に対処するために,3次元ボリュームCT画像の精密な流体分割を目的としたトランスフォーマーベースアーキテクチャSwinVFTRを提案する。
まず、チャネルワイドボリュームサンプリングを用いて、深さの異なるOCTボリュームのトレーニングを行う(Bスキャン)。
次に、エンコーダ内の新しいシフトウインドウトランスフォーマーブロックを使用して、流体領域のより優れたローカライゼーションとセグメンテーションを実現する。
さらに,従来のスキップ接続を改良した空間的・奥行き的注意のための新しいボリューム的注意ブロックを提案する。
その結果、マルチクラスのサイス損失を利用して、提案アーキテクチャは、Spectralis、Cirrus、Topconの3つの公開ベンダ固有のOCTデータセットにおいて、それぞれ平均サイススコア0.72、0.59、0.68で、既存のアーキテクチャを上回ります。
さらに、SwinVFTRは2つの関連する指標、平均交叉結合(Mean-IOU)と構造類似度測定(SSIM)で他のアーキテクチャより優れている。
関連論文リスト
- Diff3Dformer: Leveraging Slice Sequence Diffusion for Enhanced 3D CT Classification with Transformer Networks [5.806035963947936]
拡散型3次元視覚変換器(Diff3Dformer)を提案する。
本手法は, 肺CTの2種類の小さなデータセットに対して, 改良された性能を示す。
論文 参考訳(メタデータ) (2024-06-24T23:23:18Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - CIS-UNet: Multi-Class Segmentation of the Aorta in Computed Tomography
Angiography via Context-Aware Shifted Window Self-Attention [10.335899694123711]
大動脈セグメンテーションのためのディープラーニングモデルであるContext Infused Swin-UNet(CIS-UNet)を紹介する。
CIS-UNetは、CNNエンコーダ、対称デコーダ、スキップ接続、新しいコンテキスト対応シフトウィンドウ自己認識(CSW-SA)をボトルネックブロックとする階層型エンコーダデコーダ構造を採用している。
CIS-UNetは,従来のSwinUNetRセグメンテーションモデルよりも優れた平均Dice係数0.713を達成し,コンピュータ断層撮影(CT)の訓練を行った。
論文 参考訳(メタデータ) (2024-01-23T19:17:20Z) - View-Disentangled Transformer for Brain Lesion Detection [50.4918615815066]
より正確な腫瘍検出のためのMRI特徴抽出のための新しいビューディペンタングル変換器を提案する。
まず, 3次元脳スキャンにおいて, 異なる位置の長距離相関を求める。
第二に、トランスフォーマーはスライス機能のスタックを複数の2Dビューとしてモデル化し、これらの機能をビュー・バイ・ビューとして拡張する。
第三に、提案したトランスモジュールをトランスのバックボーンに展開し、脳病変を取り巻く2D領域を効果的に検出する。
論文 参考訳(メタデータ) (2022-09-20T11:58:23Z) - Focused Decoding Enables 3D Anatomical Detection by Transformers [64.36530874341666]
集束デコーダと呼ばれる3次元解剖学的構造検出のための新しい検出変換器を提案する。
Focused Decoderは、解剖学的領域のアトラスからの情報を活用して、クエリアンカーを同時にデプロイし、クロスアテンションの視野を制限する。
提案手法を利用可能な2つのCTデータセットに対して評価し、フォーカスドデコーダが強力な検出結果を提供するだけでなく、大量の注釈付きデータの必要性を軽減し、注意重みによる結果の例外的で直感的な説明性を示すことを示した。
論文 参考訳(メタデータ) (2022-07-21T22:17:21Z) - Unsupervised Contrastive Learning based Transformer for Lung Nodule
Detection [6.693379403133435]
CTによる肺結節の早期発見は,肺癌患者の長期生存と生活の質の向上に不可欠である。
CAD (Computer-Aided Detection/diagnosis) はこの文脈において第2または同時読影器として有用である。
肺結節の正確な検出は、サイズ、位置、および肺結節の出現のばらつきにより、CADシステムや放射線技師にとって依然として困難である。
近年のコンピュータビジョン技術に触発されて,肺結節を同定するための自己教師付き領域ベース3次元トランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2022-04-30T01:19:00Z) - AFTer-UNet: Axial Fusion Transformer UNet for Medical Image Segmentation [19.53151547706724]
トランスをベースとしたモデルは、医療画像セグメンテーションにおけるこれらの手法の探求に注目されている。
本稿では、畳み込み層の長周期モデリングにおける詳細特徴抽出能力と変圧器強度の両面を活かしたAxial Fusion Transformer UNet(AFTer-UNet)を提案する。
パラメータが少なく、GPUメモリのトレーニングも従来のトランスフォーマーベースのモデルよりも少ない。
論文 参考訳(メタデータ) (2021-10-20T06:47:28Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - LIFE: A Generalizable Autodidactic Pipeline for 3D OCT-A Vessel
Segmentation [5.457168581192045]
最近のディープラーニングアルゴリズムは、有望な血管セグメンテーションの結果を生み出した。
しかし、手動による注記データがないため、3D網膜血管セグメンテーションは依然として困難である。
自己合成モダリティのみによって教師される学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-07-09T07:51:33Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - 4D Spatio-Temporal Convolutional Networks for Object Position Estimation
in OCT Volumes [69.62333053044712]
3次元畳み込みニューラルネットワーク(CNN)は、単一のOCT画像を用いたマーカーオブジェクトのポーズ推定に有望な性能を示した。
我々は3次元CNNを4次元時間CNNに拡張し、マーカーオブジェクト追跡のための追加の時間情報の影響を評価する。
論文 参考訳(メタデータ) (2020-07-02T12:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。