論文の概要: Affine Medical Image Registration with Coarse-to-Fine Vision Transformer
- arxiv url: http://arxiv.org/abs/2203.15216v2
- Date: Wed, 30 Mar 2022 01:19:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 11:41:35.238964
- Title: Affine Medical Image Registration with Coarse-to-Fine Vision Transformer
- Title(参考訳): 粗視トランスフォーマを用いたアフィン医用画像登録
- Authors: Tony C. W. Mok, Albert C. S. Chung
- Abstract要約: 本稿では,3次元医用画像登録のための学習ベースアルゴリズムであるCoarse-to-Fine Vision Transformer (C2FViT)を提案する。
本手法は, 登録精度, 堅牢性, 一般化性の観点から, 既存のCNNベースのアフィン登録法よりも優れている。
- 参考スコア(独自算出の注目度): 11.4219428942199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Affine registration is indispensable in a comprehensive medical image
registration pipeline. However, only a few studies focus on fast and robust
affine registration algorithms. Most of these studies utilize convolutional
neural networks (CNNs) to learn joint affine and non-parametric registration,
while the standalone performance of the affine subnetwork is less explored.
Moreover, existing CNN-based affine registration approaches focus either on the
local misalignment or the global orientation and position of the input to
predict the affine transformation matrix, which are sensitive to spatial
initialization and exhibit limited generalizability apart from the training
dataset. In this paper, we present a fast and robust learning-based algorithm,
Coarse-to-Fine Vision Transformer (C2FViT), for 3D affine medical image
registration. Our method naturally leverages the global connectivity and
locality of the convolutional vision transformer and the multi-resolution
strategy to learn the global affine registration. We evaluate our method on 3D
brain atlas registration and template-matching normalization. Comprehensive
results demonstrate that our method is superior to the existing CNNs-based
affine registration methods in terms of registration accuracy, robustness and
generalizability while preserving the runtime advantage of the learning-based
methods. The source code is available at https://github.com/cwmok/C2FViT.
- Abstract(参考訳): アフィンの登録は総合的な医用画像登録パイプラインで必須である。
しかし、高速かつ堅牢なアフィン登録アルゴリズムに焦点をあてる研究はほとんどない。
これらの研究の多くは、畳み込みニューラルネットワーク(CNN)を用いて、結合アフィンと非パラメトリック登録を学習する一方、アフィンサブネットのスタンドアロン性能は調査されていない。
さらに、既存のCNNベースのアフィン登録手法は、空間初期化に敏感なアフィン変換行列を予測し、トレーニングデータセットとは別に限定的な一般化性を示すために、入力の局所的ミスアライメントまたはグローバルな向きと位置にフォーカスする。
本稿では,3次元医用画像登録のための高速かつ堅牢な学習ベースアルゴリズムであるCoarse-to-Fine Vision Transformer(C2FViT)を提案する。
本手法は,畳み込み視覚トランスのグローバル接続性と局所性を自然に活用し,マルチレゾリューション戦略を用いてグローバルアフィン登録を学習する。
3次元脳アトラス登録法とテンプレートマッチング正規化法について検討した。
その結果,本手法は既存のcnnsベースのアフィン登録手法よりも,登録精度,ロバスト性,一般化性において優れており,学習に基づく手法のランタイム・アドバンテージは保たれている。
ソースコードはhttps://github.com/cwmok/c2fvitで入手できる。
関連論文リスト
- Fast Diffeomorphic Image Registration using Patch based Fully Convolutional Networks [5.479932919974457]
本稿では,高速な微分画像登録のための,教師なし学習に基づく完全畳み込みネットワーク(FCN)フレームワークを提案する。
3つの異なるT1強調MRI(T1w MRI)データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2024-04-05T17:46:38Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Adapting the Mean Teacher for keypoint-based lung registration under
geometric domain shifts [75.51482952586773]
ディープニューラルネットワークは一般的に、ラベル付きトレーニングデータが多く必要であり、トレーニングデータとテストデータの間のドメインシフトに弱い。
本稿では,ラベル付きソースからラベル付きターゲットドメインへのモデルの適用により,画像登録のための幾何学的領域適応手法を提案する。
本手法は,ベースラインモデルの精度を目標データに適合させながら,ベースラインモデルの50%/47%を継続的に改善する。
論文 参考訳(メタデータ) (2022-07-01T12:16:42Z) - Non-iterative Coarse-to-fine Registration based on Single-pass Deep
Cumulative Learning [11.795108660250843]
変形可能な画像登録のための非Iterative Coarse-to-finE登録ネットワーク(NICE-Net)を提案する。
NICE-Netは、非イテレーティブメソッドと同じようなランタイムしか必要とせず、最先端の反復的な深層登録手法より優れている。
論文 参考訳(メタデータ) (2022-06-25T08:34:59Z) - Implicit Optimizer for Diffeomorphic Image Registration [3.1970342304563037]
本稿では,Diffomorphic Image Registration (IDIR) の高速かつ正確なインプシットを提案する。
提案手法を2つの大規模MR脳スキャンデータセットで評価し,提案手法が従来の画像登録手法よりも高速かつ優れた登録結果を提供することを示した。
論文 参考訳(メタデータ) (2022-02-25T05:04:29Z) - Dual-Flow Transformation Network for Deformable Image Registration with
Region Consistency Constraint [95.30864269428808]
現在のディープラーニング(DL)ベースの画像登録アプローチは、畳み込みニューラルネットワークを利用して、ある画像から別の画像への空間変換を学習する。
一対のイメージ内のROIの類似性を最大化する領域整合性制約を持つ新しいデュアルフロー変換ネットワークを提案する。
4つの公開3次元MRIデータセットを用いた実験により,提案手法は精度と一般化において最高の登録性能が得られることを示した。
論文 参考訳(メタデータ) (2021-12-04T05:30:44Z) - F3RNet: Full-Resolution Residual Registration Network for Deformable
Image Registration [21.99118499516863]
変形性画像登録(DIR)は多くの画像誘導療法に必須である。
我々は、新しい教師なし登録ネットワーク、すなわちF3RNet(Full-Resolution Residual Registration Network)を提案する。
1つのストリームは、正確なボクセルレベルの登録を容易にするフルレゾリューション情報を利用する。
他方のストリームは、深いマルチスケールの残差表現を学習し、ロバストな認識を得る。
論文 参考訳(メタデータ) (2020-09-15T15:05:54Z) - DeepGMR: Learning Latent Gaussian Mixture Models for Registration [113.74060941036664]
ポイントクラウドの登録は、3Dコンピュータビジョン、グラフィックス、ロボット工学の基本的な問題である。
本稿では,最初の学習ベース登録法であるDeep Gaussian Mixture Registration(DeepGMR)を紹介する。
提案手法は,最先端の幾何学的および学習的登録手法と比較して,良好な性能を示す。
論文 参考訳(メタデータ) (2020-08-20T17:25:16Z) - MetaSDF: Meta-learning Signed Distance Functions [85.81290552559817]
ニューラルな暗示表現で形状を一般化することは、各関数空間上の学習先行値に比例する。
形状空間の学習をメタラーニング問題として定式化し、勾配に基づくメタラーニングアルゴリズムを利用してこの課題を解決する。
論文 参考訳(メタデータ) (2020-06-17T05:14:53Z) - Fast Symmetric Diffeomorphic Image Registration with Convolutional
Neural Networks [11.4219428942199]
本稿では,新しい非教師付き対称画像登録手法を提案する。
大規模脳画像データセットを用いた3次元画像登録法について検討した。
論文 参考訳(メタデータ) (2020-03-20T22:07:24Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。