論文の概要: Non-iterative Coarse-to-fine Registration based on Single-pass Deep
Cumulative Learning
- arxiv url: http://arxiv.org/abs/2206.12596v1
- Date: Sat, 25 Jun 2022 08:34:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 15:16:50.936230
- Title: Non-iterative Coarse-to-fine Registration based on Single-pass Deep
Cumulative Learning
- Title(参考訳): 単パス深層累積学習に基づく非イテレーティブ粗粒登録
- Authors: Mingyuan Meng, Lei Bi, Dagan Feng, and Jinman Kim
- Abstract要約: 変形可能な画像登録のための非Iterative Coarse-to-finE登録ネットワーク(NICE-Net)を提案する。
NICE-Netは、非イテレーティブメソッドと同じようなランタイムしか必要とせず、最先端の反復的な深層登録手法より優れている。
- 参考スコア(独自算出の注目度): 11.795108660250843
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deformable image registration is a crucial step in medical image analysis for
finding a non-linear spatial transformation between a pair of fixed and moving
images. Deep registration methods based on Convolutional Neural Networks (CNNs)
have been widely used as they can perform image registration in a fast and
end-to-end manner. However, these methods usually have limited performance for
image pairs with large deformations. Recently, iterative deep registration
methods have been used to alleviate this limitation, where the transformations
are iteratively learned in a coarse-to-fine manner. However, iterative methods
inevitably prolong the registration runtime, and tend to learn separate image
features for each iteration, which hinders the features from being leveraged to
facilitate the registration at later iterations. In this study, we propose a
Non-Iterative Coarse-to-finE registration Network (NICE-Net) for deformable
image registration. In the NICE-Net, we propose: (i) a Single-pass Deep
Cumulative Learning (SDCL) decoder that can cumulatively learn coarse-to-fine
transformations within a single pass (iteration) of the network, and (ii) a
Selectively-propagated Feature Learning (SFL) encoder that can learn common
image features for the whole coarse-to-fine registration process and
selectively propagate the features as needed. Extensive experiments on six
public datasets of 3D brain Magnetic Resonance Imaging (MRI) show that our
proposed NICE-Net can outperform state-of-the-art iterative deep registration
methods while only requiring similar runtime to non-iterative methods.
- Abstract(参考訳): 変形可能な画像登録は、固定画像と移動画像の間の非線形空間変換を見つけるための医療画像解析における重要なステップである。
畳み込みニューラルネットワーク(cnns)に基づく深層登録手法は,高速かつエンドツーエンドで画像登録を行うために広く用いられている。
しかし、これらの手法は通常、大きな変形を有する画像対の性能に制限がある。
近年、この制限を緩和するために反復的深層登録法が用いられており、そこでは変換を粗い方法で反復的に学習している。
しかし、反復的手法は必然的に登録ランタイムを延長し、各イテレーションで別々の画像特徴を学習する傾向があるため、後続のイテレーションでの登録を容易にするために機能の利用を妨げる。
本研究では,変形可能な画像登録のための非イテレーティブ粗細登録ネットワーク(nice-net)を提案する。
NICE-Netでは、次のように提案する。
(i)ネットワークの1つのパス(文)内で粗〜細変換を累積的に学習できるsdcl(single-pass deep cumulative learning)デコーダ
(II)選択プロパゲート・フィーチャーラーニング(SFL)エンコーダは、粗大な登録プロセス全体の共通画像特徴を学習し、必要に応じてその特徴を選択的に伝播させることができる。
3次元脳磁気共鳴画像(MRI)の6つの公開データセットに対する大規模な実験により、提案したNICE-Netは、最先端の反復的深層登録法より優れ、非定常的手法と類似した実行時しか必要としないことがわかった。
関連論文リスト
- Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Non-iterative Coarse-to-fine Transformer Networks for Joint Affine and
Deformable Image Registration [10.994223928445589]
画像登録のための非Iterative Coarse-to-finE Transformer Network (NICE-Trans)を提案する。
我々のNICE-Transは、単一のネットワーク内で結合アフィンと変形可能な粗粒度登録を行う最初のディープ登録方法である。
論文 参考訳(メタデータ) (2023-07-07T07:07:42Z) - ABN: Anti-Blur Neural Networks for Multi-Stage Deformable Image
Registration [20.054872823030454]
変形可能な画像登録は、ニューロイメージングのための重要な前処理ステップとして機能する。
マルチステージ画像登録のための新しい解として,アンチブルネットワーク (ABN) を提案する。
論文 参考訳(メタデータ) (2022-12-06T19:21:43Z) - Joint segmentation and discontinuity-preserving deformable registration:
Application to cardiac cine-MR images [74.99415008543276]
多くの深層学習に基づく登録法は、変形場は画像領域の至る所で滑らかで連続的であると仮定する。
本研究では,この課題に対処するために,不連続かつ局所的に滑らかな変形場を確保するための新しい不連続保存画像登録手法を提案する。
入力画像の構造的相関を学習するために,ネットワークのセグメンテーション成分にコアテンションブロックを提案する。
大規模心磁気共鳴画像系列を用いた物体内時間画像登録の課題について検討した。
論文 参考訳(メタデータ) (2022-11-24T23:45:01Z) - Affine Medical Image Registration with Coarse-to-Fine Vision Transformer [11.4219428942199]
本稿では,3次元医用画像登録のための学習ベースアルゴリズムであるCoarse-to-Fine Vision Transformer (C2FViT)を提案する。
本手法は, 登録精度, 堅牢性, 一般化性の観点から, 既存のCNNベースのアフィン登録法よりも優れている。
論文 参考訳(メタデータ) (2022-03-29T03:18:43Z) - Learning a Model-Driven Variational Network for Deformable Image
Registration [89.9830129923847]
VR-Netは、教師なしの変形可能な画像登録のための新しいカスケード可変ネットワークである。
登録精度において最先端のディープラーニング手法よりも優れています。
ディープラーニングの高速推論速度と変分モデルのデータ効率を維持している。
論文 参考訳(メタデータ) (2021-05-25T21:37:37Z) - Deep Convolutional Neural Network for Non-rigid Image Registration [0.0]
本稿では、深層ニューラルネットワーク(dnn)と、より具体的には、深層畳み込みニューラルネットワーク(cnn)の非剛性画像登録を効率的に行う能力について検討する。
実験の結果、CNNは非剛体画像の効率的な登録に利用でき、従来のDiffomorphic Demons や Pyramiding に比べて計算時間もかなり少ないことがわかった。
論文 参考訳(メタデータ) (2021-04-24T23:24:29Z) - Test-Time Training for Deformable Multi-Scale Image Registration [15.523457398508263]
VoxelMorphのようなディープラーニングベースの登録アプローチが出現し、競争パフォーマンスを達成しています。
従来の学習型登録モデルの一般化能力を向上させるために, デフォーマブル画像登録のためのテストタイムトレーニングを構築した。
論文 参考訳(メタデータ) (2021-03-25T03:22:59Z) - Learning to Learn Parameterized Classification Networks for Scalable
Input Images [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、入力解像度の変化に関して予測可能な認識動作を持たない。
我々はメタラーナーを用いて、様々な入力スケールのメインネットワークの畳み込み重みを生成する。
さらに、異なる入力解像度に基づいて、モデル予測よりもフライでの知識蒸留を利用する。
論文 参考訳(メタデータ) (2020-07-13T04:27:25Z) - An Auto-Context Deformable Registration Network for Infant Brain MRI [54.57017031561516]
本稿では, 自動文脈戦略を用いて変形場を段階的に洗練する幼児向け深層登録ネットワークを提案する。
本手法は, 繰り返し変形改善のために1つのネットワークを複数回呼び出すことにより, 変形場を推定する。
現状登録法との比較実験の結果, 変形場の滑らかさを保ちながら, 高い精度を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-19T06:00:13Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。