論文の概要: A training-free recursive multiresolution framework for diffeomorphic
deformable image registration
- arxiv url: http://arxiv.org/abs/2202.00675v1
- Date: Tue, 1 Feb 2022 15:17:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 03:19:51.955368
- Title: A training-free recursive multiresolution framework for diffeomorphic
deformable image registration
- Title(参考訳): 微分同相変形画像登録のための学習不要再帰的多分解能フレームワーク
- Authors: Ameneh Sheikhjafari, Michelle Noga, Kumaradevan Punithakumar and
Nilanjan Ray
- Abstract要約: 変形可能な画像登録のための新しい微分型学習自由アプローチを提案する。
提案するアーキテクチャは設計上は単純で,各解像度で移動像を順次ワープし,最終的に固定像に整列する。
システム全体はエンドツーエンドで、スクラッチから各2つのイメージに最適化されている。
- 参考スコア(独自算出の注目度): 6.929709872589039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffeomorphic deformable image registration is one of the crucial tasks in
medical image analysis, which aims to find a unique transformation while
preserving the topology and invertibility of the transformation. Deep
convolutional neural networks (CNNs) have yielded well-suited approaches for
image registration by learning the transformation priors from a large dataset.
The improvement in the performance of these methods is related to their ability
to learn information from several sample medical images that are difficult to
obtain and bias the framework to the specific domain of data. In this paper, we
propose a novel diffeomorphic training-free approach; this is built upon the
principle of an ordinary differential equation.
Our formulation yields an Euler integration type recursive scheme to estimate
the changes of spatial transformations between the fixed and the moving image
pyramids at different resolutions. The proposed architecture is simple in
design. The moving image is warped successively at each resolution and finally
aligned to the fixed image; this procedure is recursive in a way that at each
resolution, a fully convolutional network (FCN) models a progressive change of
deformation for the current warped image. The entire system is end-to-end and
optimized for each pair of images from scratch. In comparison to learning-based
methods, the proposed method neither requires a dedicated training set nor
suffers from any training bias. We evaluate our method on three cardiac image
datasets. The evaluation results demonstrate that the proposed method achieves
state-of-the-art registration accuracy while maintaining desirable
diffeomorphic properties.
- Abstract(参考訳): Diffomorphic deformable Image registrationは、医用画像解析において重要な課題の1つであり、変換のトポロジーと可逆性を保ちながら、ユニークな変換を見つけることを目的としている。
深層畳み込みニューラルネットワーク(deep convolutional neural networks, cnns)は、大規模なデータセットから事前変換を学習することで、画像登録に適したアプローチを生み出した。
これらの手法の性能改善は、特定のデータ領域にフレームワークを組み込むのが難しいいくつかのサンプル医療画像から情報を学習する能力に関連している。
本稿では,通常の微分方程式の原理に基づいて,新しい二相的トレーニングフリーアプローチを提案する。
我々の定式化は、固定像と移動像のピラミッド間の空間変換の変化を異なる解像度で推定するオイラー積分型再帰的スキームをもたらす。
提案されたアーキテクチャは設計が単純である。
移動画像は、各解像度で順次ワープされ、最終的に固定画像に整列される。この手順は、各解像度において、完全な畳み込みネットワーク(FCN)が現在のワープ画像の変形の進行変化をモデル化する方法で再帰的に行われる。
システム全体はエンドツーエンドであり、一対のイメージに最適化されている。
学習に基づく手法と比較すると,提案手法では専用のトレーニングセットも必要とせず,トレーニングバイアスも持たない。
本手法を3つの心画像データセットで評価した。
評価結果は,提案手法が望ましい微分型特性を維持しつつ,最先端の登録精度を実現することを示す。
関連論文リスト
- Bayesian Unsupervised Disentanglement of Anatomy and Geometry for Deep Groupwise Image Registration [50.62725807357586]
本稿では,マルチモーダル群画像登録のための一般ベイズ学習フレームワークを提案する。
本稿では,潜在変数の推論手順を実現するために,新しい階層的変分自動符号化アーキテクチャを提案する。
心臓、脳、腹部の医療画像から4つの異なるデータセットを含む,提案された枠組みを検証する実験を行った。
論文 参考訳(メタデータ) (2024-01-04T08:46:39Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - RecRecNet: Rectangling Rectified Wide-Angle Images by Thin-Plate Spline
Model and DoF-based Curriculum Learning [62.86400614141706]
我々はRecRecNet(Rectangling Rectification Network)という新しい学習モデルを提案する。
我々のモデルは、ソース構造をターゲット領域に柔軟にワープし、エンドツーエンドの非教師なし変形を実現する。
実験により, 定量評価と定性評価の両面において, 比較法よりも解法の方が優れていることが示された。
論文 参考訳(メタデータ) (2023-01-04T15:12:57Z) - DiffuseMorph: Unsupervised Deformable Image Registration Along
Continuous Trajectory Using Diffusion Models [31.826844124173984]
DiffuseMorphと呼ばれる拡散モデルに基づく新しい確率的画像登録手法を提案する。
本モデルは,動画像と固定画像の変形のスコア関数を学習する。
本手法は, トポロジー保存機能により, 柔軟かつ高精度な変形を可能とする。
論文 参考訳(メタデータ) (2021-12-09T08:41:23Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - A Learning Framework for Diffeomorphic Image Registration based on
Quasi-conformal Geometry [1.2891210250935146]
本稿では,非教師付き学習フレームワークである準コンフォーマル登録ネットワーク(QCRegNet)を提案する。
QCRegNetは推定器ネットワークとベルトラミソルバネットワーク(BSNet)から構成される
その結果、登録精度は最先端の手法に匹敵し、微分同相性はかなり保証されていることがわかった。
論文 参考訳(メタデータ) (2021-10-20T14:23:24Z) - ResNet-LDDMM: Advancing the LDDMM Framework Using Deep Residual Networks [86.37110868126548]
本研究では,eulerの離散化スキームに基づく非定常ode(フロー方程式)の解法として,深層残留ニューラルネットワークを用いた。
複雑なトポロジー保存変換の下での3次元形状の多種多様な登録問題について述べる。
論文 参考訳(メタデータ) (2021-02-16T04:07:13Z) - MDReg-Net: Multi-resolution diffeomorphic image registration using fully
convolutional networks with deep self-supervision [2.0178765779788486]
完全畳み込みネットワーク(FCN)を用いて、登録する画像のペア間の空間変換を学習するための微分型画像登録アルゴリズムを提案する。
このネットワークは、固定された動画像と歪んだ動画像間の画像ワイド類似度メトリックを最大化することにより、一対の画像間の微分同相空間変換を推定するように訓練されている。
高分解能3次元構造脳磁気共鳴(MR)画像の登録実験の結果,本手法で訓練した画像登録ネットワークは,数秒で頑健で微分型画像登録結果が得られることが示された。
論文 参考訳(メタデータ) (2020-10-04T02:00:37Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - Fast Symmetric Diffeomorphic Image Registration with Convolutional
Neural Networks [11.4219428942199]
本稿では,新しい非教師付き対称画像登録手法を提案する。
大規模脳画像データセットを用いた3次元画像登録法について検討した。
論文 参考訳(メタデータ) (2020-03-20T22:07:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。