論文の概要: TransMorph: Transformer for unsupervised medical image registration
- arxiv url: http://arxiv.org/abs/2111.10480v2
- Date: Tue, 23 Nov 2021 02:56:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 12:13:30.828956
- Title: TransMorph: Transformer for unsupervised medical image registration
- Title(参考訳): TransMorph: 教師なし医療画像登録用トランスフォーマー
- Authors: Junyu Chen, Yong Du, Yufan He, William P. Segars, Ye Li, Eric C. Frey
- Abstract要約: 医療画像登録のためのハイブリッドトランスフォーマー-ConvNetモデルであるTransMorphを提案する。
提案したモデルは、既存の登録方法やTransformerアーキテクチャに対して広範囲に検証されている。
- 参考スコア(独自算出の注目度): 5.911344579346077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the last decade, convolutional neural networks (ConvNets) have dominated
the field of medical image analysis. However, it is found that the performances
of ConvNets may still be limited by their inability to model long-range spatial
relations between voxels in an image. Numerous vision Transformers have been
proposed recently to address the shortcomings of ConvNets, demonstrating
state-of-the-art performances in many medical imaging applications.
Transformers may be a strong candidate for image registration because their
self-attention mechanism enables a more precise comprehension of the spatial
correspondence between moving and fixed images. In this paper, we present
TransMorph, a hybrid Transformer-ConvNet model for volumetric medical image
registration. We also introduce three variants of TransMorph, with two
diffeomorphic variants ensuring the topology-preserving deformations and a
Bayesian variant producing a well-calibrated registration uncertainty estimate.
The proposed models are extensively validated against a variety of existing
registration methods and Transformer architectures using volumetric medical
images from two applications: inter-patient brain MRI registration and
phantom-to-CT registration. Qualitative and quantitative results demonstrate
that TransMorph and its variants lead to a substantial performance improvement
over the baseline methods, demonstrating the effectiveness of Transformers for
medical image registration.
- Abstract(参考訳): 過去10年間で、畳み込みニューラルネットワーク(ConvNets)が医療画像分析の分野を支配してきた。
しかし,画像中のボクセル間の長距離空間関係をモデル化できないため,コンブネットの性能は制限される可能性がある。
ConvNetsの欠点に対処するために、多くのビジョントランスフォーマーが最近提案され、多くの医療画像アプリケーションで最先端のパフォーマンスを実証している。
トランスフォーマーは、移動画像と固定画像の空間対応をより正確に理解できるため、画像登録の強力な候補となるかもしれない。
本稿では,ボリューム医療画像登録のためのTransformer-ConvNetハイブリッドモデルTransMorphを提案する。
また、位相保存変形を保証する2つの微分同相変種と、よく校正された登録不確実性推定を生成するベイズ変種という3つの変種も導入する。
提案モデルは, 患者間MRIとファントムCTの2つの応用から, ボリューム医療画像を用いて, 既存の登録方法やトランスフォーマーアーキテクチャに対して広範囲に検証されている。
質的および定量的な結果は、TransMorphとその変種がベースライン法よりも大幅に改善し、医療画像登録におけるTransformerの有効性を示す。
関連論文リスト
- SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - MOREA: a GPU-accelerated Evolutionary Algorithm for Multi-Objective
Deformable Registration of 3D Medical Images [0.7734726150561088]
大規模な変形に対処可能な3次元画像の変形可能な登録のための,最初の進化的アルゴリズムに基づくアプローチであるMOREAを提案する。
MOREAには物理可視性のための3Dバイオメカニカルメッシュモデルが含まれており、完全にGPUアクセラレーションされている。
頸部癌4例の腹部CT検査におけるMOREAの有用性について検討した。
論文 参考訳(メタデータ) (2023-03-08T20:26:55Z) - MedSegDiff-V2: Diffusion based Medical Image Segmentation with
Transformer [53.575573940055335]
我々は、MedSegDiff-V2と呼ばれるトランスフォーマーベースの拡散フレームワークを提案する。
画像の異なる20種類の画像分割作業において,その有効性を検証する。
論文 参考訳(メタデータ) (2023-01-19T03:42:36Z) - UGformer for Robust Left Atrium and Scar Segmentation Across Scanners [12.848774186557403]
医用画像セグメンテーション(UGformer)のための新しいフレームワークを提案する。
U-Netから派生した新しいトランスフォーマーブロック、GCNブリッジ、畳み込みデコーダを統一し、左心房(LA)とLAの傷痕を予測する。
提案されたUGformerモデルは、LAScarQS 2022データセットに左心房と傷痕を分割する優れた能力を示す。
論文 参考訳(メタデータ) (2022-10-11T05:11:11Z) - View-Disentangled Transformer for Brain Lesion Detection [50.4918615815066]
より正確な腫瘍検出のためのMRI特徴抽出のための新しいビューディペンタングル変換器を提案する。
まず, 3次元脳スキャンにおいて, 異なる位置の長距離相関を求める。
第二に、トランスフォーマーはスライス機能のスタックを複数の2Dビューとしてモデル化し、これらの機能をビュー・バイ・ビューとして拡張する。
第三に、提案したトランスモジュールをトランスのバックボーンに展開し、脳病変を取り巻く2D領域を効果的に検出する。
論文 参考訳(メタデータ) (2022-09-20T11:58:23Z) - Class-Aware Generative Adversarial Transformers for Medical Image
Segmentation [39.14169989603906]
医用画像セグメンテーションのための新規な生成逆変換器CA-GANformerを提案する。
まず、ピラミッド構造を利用してマルチスケール表現を構築し、マルチスケールのバリエーションを扱う。
次に、意味構造を持つオブジェクトの識別領域をよりよく学習するために、新しいクラス対応トランスフォーマーモジュールを設計する。
論文 参考訳(メタデータ) (2022-01-26T03:50:02Z) - Pyramid Medical Transformer for Medical Image Segmentation [8.157373686645318]
ピラミッド型ネットワークアーキテクチャ(PMTrans)を用いたマルチスケールアテンションとCNN特徴抽出を統合した新しい手法を開発した。
2つの医用画像データセット(腺セグメンテーションとMoNuSegデータセット)の実験結果によると、PMTransは最新のCNNベースおよびトランスフォーマーベースの医療用画像セグメンテーションモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-04-29T23:57:20Z) - TransMed: Transformers Advance Multi-modal Medical Image Classification [4.500880052705654]
畳み込みニューラルネットワーク(CNN)は、医療画像解析タスクで非常に競争力のあるパフォーマンスを示しています。
トランスフォーマーはコンピュータビジョンに適用され、大規模なデータセットで顕著な成功を収めた。
TransMedはCNNとトランスフォーマーの利点を組み合わせて、画像の低レベル特徴を効率的に抽出する。
論文 参考訳(メタデータ) (2021-03-10T08:57:53Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z) - Diffusion-Weighted Magnetic Resonance Brain Images Generation with
Generative Adversarial Networks and Variational Autoencoders: A Comparison
Study [55.78588835407174]
本研究では,高画質,多彩で現実的な拡散重み付き磁気共鳴画像が深部生成モデルを用いて合成可能であることを示す。
Introspective Variational AutoencoderとStyle-Based GANの2つのネットワークを医療分野におけるデータ拡張の資格として提示する。
論文 参考訳(メタデータ) (2020-06-24T18:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。