論文の概要: GraDIRN: Learning Iterative Gradient Descent-based Energy Minimization
for Deformable Image Registration
- arxiv url: http://arxiv.org/abs/2112.03915v1
- Date: Tue, 7 Dec 2021 14:48:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 04:24:17.029370
- Title: GraDIRN: Learning Iterative Gradient Descent-based Energy Minimization
for Deformable Image Registration
- Title(参考訳): GraDIRN: 変形可能な画像登録のための反復的勾配線量に基づくエネルギー最小化
- Authors: Huaqi Qiu, Kerstin Hammernik, Chen Qin, Daniel Rueckert
- Abstract要約: 変形可能な画像登録を学習するためのGraDIRN(Gradient Descent-based Image Registration Network)を提案する。
GraDIRNは多分解能勾配降下エネルギー最小化に基づいている。
本手法は,学習可能なパラメータを少なく抑えながら,最先端の登録性能を実現することを実証する。
- 参考スコア(独自算出の注目度): 9.684786294246749
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a Gradient Descent-based Image Registration Network (GraDIRN) for
learning deformable image registration by embedding gradient-based iterative
energy minimization in a deep learning framework. Traditional image
registration algorithms typically use iterative energy-minimization
optimization to find the optimal transformation between a pair of images, which
is time-consuming when many iterations are needed. In contrast, recent
learning-based methods amortize this costly iterative optimization by training
deep neural networks so that registration of one pair of images can be achieved
by fast network forward pass after training. Motivated by successes in image
reconstruction techniques that combine deep learning with the mathematical
structure of iterative variational energy optimization, we formulate a novel
registration network based on multi-resolution gradient descent energy
minimization. The forward pass of the network takes explicit image
dissimilarity gradient steps and generalized regularization steps parameterized
by Convolutional Neural Networks (CNN) for a fixed number of iterations. We use
auto-differentiation to derive the forward computational graph for the explicit
image dissimilarity gradient w.r.t. the transformation, so arbitrary image
dissimilarity metrics and transformation models can be used without complex and
error-prone gradient derivations. We demonstrate that this approach achieves
state-of-the-art registration performance while using fewer learnable
parameters through extensive evaluations on registration tasks using 2D cardiac
MR images and 3D brain MR images.
- Abstract(参考訳): 本稿では、勾配に基づく反復エネルギー最小化をディープラーニングフレームワークに組み込むことにより、変形可能な画像登録を学習するためのグラディエントDescent-based Image Registration Network(GraDIRN)を提案する。
従来の画像登録アルゴリズムは、通常、反復エネルギー最小化最適化を使用して、1対のイメージ間の最適な変換を見つける。
対照的に、最近の学習ベースの手法は、ディープニューラルネットワークをトレーニングすることで、このコストのかかる反復最適化を償い、トレーニング後の高速なネットワークフォワードパスによって、1対の画像の登録を可能にする。
深層学習と反復変動エネルギー最適化の数学的構造を組み合わせた画像再構成手法の成功に動機づけられ,マルチレゾリューション勾配降下エネルギー最小化に基づく新しい登録ネットワークを構築した。
ネットワークの前方通過は、明示的な画像差分勾配ステップと、畳み込みニューラルネットワーク(CNN)によってパラメータ化された一般化正規化ステップを一定回数の反復で行う。
自動微分を用いて、この変換の明示的な画像差分勾配 w.r.t. に対して前方の計算グラフを導出するので、任意の画像差分勾配のメトリクスと変換モデルは、複雑でエラーを起こしやすい勾配の導出を伴わずに利用できる。
2次元心臓mr画像と3次元脳mr画像を用いた登録タスクを広範囲に評価し,学習可能なパラメータを低減しつつ,最先端の登録性能を実現することを実証した。
関連論文リスト
- Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Non-iterative Coarse-to-fine Registration based on Single-pass Deep
Cumulative Learning [11.795108660250843]
変形可能な画像登録のための非Iterative Coarse-to-finE登録ネットワーク(NICE-Net)を提案する。
NICE-Netは、非イテレーティブメソッドと同じようなランタイムしか必要とせず、最先端の反復的な深層登録手法より優れている。
論文 参考訳(メタデータ) (2022-06-25T08:34:59Z) - Convolutional Analysis Operator Learning by End-To-End Training of
Iterative Neural Networks [3.6280929178575994]
本稿では、反復ニューラルネットワークのエンドツーエンドトレーニングにより、畳み込みスペーシングフィルタを効率的に学習する方法を示す。
我々は,非カルテシアン2次元心血管MRI例に対するアプローチを検証し,得られたフィルタが,デカップリングプレトレーニングにより得られたものよりも,対応する再構成アルゴリズムに適していることを示した。
論文 参考訳(メタデータ) (2022-03-04T07:32:16Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - Deep Amended Gradient Descent for Efficient Spectral Reconstruction from
Single RGB Images [42.26124628784883]
本稿では、AGD-Netという、コンパクトで効率的でエンドツーエンドの学習ベースのフレームワークを提案する。
まず、古典的勾配降下アルゴリズムに基づいて問題を明示的に定式化する。
AGD-Netは、平均1.0dB以上のリコンストラクション品質を向上させることができる。
論文 参考訳(メタデータ) (2021-08-12T05:54:09Z) - Multi-scale Neural ODEs for 3D Medical Image Registration [7.715565365558909]
医用画像解析において画像登録は重要な役割を担っている。
ラーニング・トゥ・マップのような深層学習手法はより高速であるが、大きな動きを扱うための精度を改善するために反復的あるいは粗大なアプローチが必要である。
本研究では,マルチスケールのニューラルODEモデルを用いて登録を学習することを提案する。
論文 参考訳(メタデータ) (2021-06-16T00:26:53Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - Image-to-image Mapping with Many Domains by Sparse Attribute Transfer [71.28847881318013]
教師なし画像と画像の変換は、2つの領域間の一対のマッピングを、ポイント間の既知のペアワイズ対応なしで学習することで構成される。
現在の慣例は、サイクル一貫性のあるGANでこのタスクにアプローチすることです。
そこで本研究では,ジェネレータを直接,潜在層における単純なスパース変換に制限する代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-23T19:52:23Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - Fast Symmetric Diffeomorphic Image Registration with Convolutional
Neural Networks [11.4219428942199]
本稿では,新しい非教師付き対称画像登録手法を提案する。
大規模脳画像データセットを用いた3次元画像登録法について検討した。
論文 参考訳(メタデータ) (2020-03-20T22:07:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。