論文の概要: UGformer for Robust Left Atrium and Scar Segmentation Across Scanners
- arxiv url: http://arxiv.org/abs/2210.05151v1
- Date: Tue, 11 Oct 2022 05:11:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 16:02:06.179700
- Title: UGformer for Robust Left Atrium and Scar Segmentation Across Scanners
- Title(参考訳): ロバストな左心房用ugformerとスキャナー間のスカーセグメンテーション
- Authors: Tianyi Liu, Size Hou, Jiayuan Zhu, Zilong Zhao and Haochuan Jiang
- Abstract要約: 医用画像セグメンテーション(UGformer)のための新しいフレームワークを提案する。
U-Netから派生した新しいトランスフォーマーブロック、GCNブリッジ、畳み込みデコーダを統一し、左心房(LA)とLAの傷痕を予測する。
提案されたUGformerモデルは、LAScarQS 2022データセットに左心房と傷痕を分割する優れた能力を示す。
- 参考スコア(独自算出の注目度): 12.848774186557403
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Thanks to the capacity for long-range dependencies and robustness to
irregular shapes, vision transformers and deformable convolutions are emerging
as powerful vision techniques of segmentation.Meanwhile, Graph Convolution
Networks (GCN) optimize local features based on global topological relationship
modeling. Particularly, they have been proved to be effective in addressing
issues in medical imaging segmentation tasks including multi-domain
generalization for low-quality images. In this paper, we present a novel,
effective, and robust framework for medical image segmentation, namely,
UGformer. It unifies novel transformer blocks, GCN bridges, and convolution
decoders originating from U-Net to predict left atriums (LAs) and LA scars. We
have identified two appealing findings of the proposed UGformer: 1). an
enhanced transformer module with deformable convolutions to improve the
blending of the transformer information with convolutional information and help
predict irregular LAs and scar shapes. 2). Using a bridge incorporating GCN to
further overcome the difficulty of capturing condition inconsistency across
different Magnetic Resonance Images scanners with various inconsistent domain
information. The proposed UGformer model exhibits outstanding ability to
segment the left atrium and scar on the LAScarQS 2022 dataset, outperforming
several recent state-of-the-arts.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は,長距離依存の能力と不規則な形状に対する堅牢性により,グローバルなトポロジカルな関係モデリングに基づく局所的特徴を最適化すると同時に,分割の強力なビジョン技術として,視覚変換器や変形可能な畳み込みが出現している。
特に,低画質画像のマルチドメイン一般化など,医用画像分割課題の解決に有効であることが証明されている。
本稿では,医療用画像セグメンテーションのための新規で効果的でロバストなフレームワークugformerを提案する。
U-Netから派生した新しいトランスフォーマーブロック、GCNブリッジ、畳み込みデコーダを統一し、左心房(LA)とLAの傷跡を予測する。
提案したUGformerの2つの魅力的な発見を確認した。
変形可能な畳み込みを備えた拡張トランスモジュールで、変圧器情報の畳み込み情報とのブレンディングを改善し、不規則なLAや傷跡の形状を予測する。
2).
GCNを組み込んだブリッジを使用することで、様々な整合性ドメイン情報を持つ異なる磁気共鳴画像スキャナ間で条件の不整合を捕捉する難しさをさらに克服する。
提案されたugformerモデルは、lascarqs 2022データセットの左心房と傷跡を分割する優れた能力を示し、最近のいくつかの最先端技術よりも優れている。
関連論文リスト
- Forgery-aware Adaptive Transformer for Generalizable Synthetic Image
Detection [106.39544368711427]
本研究では,様々な生成手法から偽画像を検出することを目的とした,一般化可能な合成画像検出の課題について検討する。
本稿では,FatFormerという新しいフォージェリー適応トランスフォーマー手法を提案する。
提案手法は, 平均98%の精度でGANを観測し, 95%の精度で拡散モデルを解析した。
論文 参考訳(メタデータ) (2023-12-27T17:36:32Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Towards Optimal Patch Size in Vision Transformers for Tumor Segmentation [2.4540404783565433]
転移性大腸癌(mCRC)における腫瘍の検出は,肝癌の早期診断と治療において重要な役割を担っている。
完全畳み込みニューラルネットワーク(FCNN)によってバックボンドされたディープラーニングモデルは、3Dコンピュータ断層撮影(CT)スキャンのセグメンテーションにおいて支配的なモデルとなっている。
視覚変換器は、FCNNの受容野の局所性を解決するために導入された。
本稿では,転移病変の平均体積サイズに基づいて,視覚変換器の最適入力多重解像度画像パッチサイズを選択する手法を提案する。
論文 参考訳(メタデータ) (2023-08-31T09:57:27Z) - AlignTransformer: Hierarchical Alignment of Visual Regions and Disease
Tags for Medical Report Generation [50.21065317817769]
本稿では,Align Hierarchical Attention (AHA)とMulti-Grained Transformer (MGT)モジュールを含むAlign Transformerフレームワークを提案する。
パブリックなIU-XrayとMIMIC-CXRデータセットの実験は、AlignTransformerが2つのデータセットの最先端メソッドと競合する結果が得られることを示している。
論文 参考訳(メタデータ) (2022-03-18T13:43:53Z) - Class-Aware Generative Adversarial Transformers for Medical Image
Segmentation [39.14169989603906]
医用画像セグメンテーションのための新規な生成逆変換器CA-GANformerを提案する。
まず、ピラミッド構造を利用してマルチスケール表現を構築し、マルチスケールのバリエーションを扱う。
次に、意味構造を持つオブジェクトの識別領域をよりよく学習するために、新しいクラス対応トランスフォーマーモジュールを設計する。
論文 参考訳(メタデータ) (2022-01-26T03:50:02Z) - Swin UNETR: Swin Transformers for Semantic Segmentation of Brain Tumors
in MRI Images [7.334185314342017]
我々はSwin UNEt TRansformers(Swin UNETR)と呼ばれる新しいセグメンテーションモデルを提案する。
このモデルは、シフトしたウィンドウを利用して、5つの異なる解像度で特徴を抽出し、自己注意を演算する。
我々は、BraTS 2021セグメンテーションチャレンジに参加し、提案したモデルは、検証フェーズにおける最も優れたアプローチの1つである。
論文 参考訳(メタデータ) (2022-01-04T18:01:34Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - TransMorph: Transformer for unsupervised medical image registration [5.911344579346077]
医療画像登録のためのハイブリッドトランスフォーマー-ConvNetモデルであるTransMorphを提案する。
提案したモデルは、既存の登録方法やTransformerアーキテクチャに対して広範囲に検証されている。
論文 参考訳(メタデータ) (2021-11-19T23:37:39Z) - MISSFormer: An Effective Medical Image Segmentation Transformer [3.441872541209065]
CNNベースの手法は、医用画像のセグメンテーションにおいて顕著な成果を上げている。
トランスフォーマーベースの手法は、近ごろ、長距離依存の容量のため、視覚タスクで人気がある。
MISSFormerは,効果的かつ強力な医用画像tranSFormerである。
論文 参考訳(メタデータ) (2021-09-15T08:56:00Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。