論文の概要: F3RNet: Full-Resolution Residual Registration Network for Deformable
Image Registration
- arxiv url: http://arxiv.org/abs/2009.07151v3
- Date: Mon, 7 Dec 2020 03:08:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 06:42:23.272144
- Title: F3RNet: Full-Resolution Residual Registration Network for Deformable
Image Registration
- Title(参考訳): F3RNet: 変形可能な画像登録のための完全解像残差登録ネットワーク
- Authors: Zhe Xu, Jie Luo, Jiangpeng Yan, Xiu Li, Jagadeesan Jayender
- Abstract要約: 変形性画像登録(DIR)は多くの画像誘導療法に必須である。
我々は、新しい教師なし登録ネットワーク、すなわちF3RNet(Full-Resolution Residual Registration Network)を提案する。
1つのストリームは、正確なボクセルレベルの登録を容易にするフルレゾリューション情報を利用する。
他方のストリームは、深いマルチスケールの残差表現を学習し、ロバストな認識を得る。
- 参考スコア(独自算出の注目度): 21.99118499516863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deformable image registration (DIR) is essential for many image-guided
therapies. Recently, deep learning approaches have gained substantial
popularity and success in DIR. Most deep learning approaches use the so-called
mono-stream "high-to-low, low-to-high" network structure, and can achieve
satisfactory overall registration results. However, accurate alignments for
some severely deformed local regions, which are crucial for pinpointing
surgical targets, are often overlooked. Consequently, these approaches are not
sensitive to some hard-to-align regions, e.g., intra-patient registration of
deformed liver lobes. In this paper, we propose a novel unsupervised
registration network, namely the Full-Resolution Residual Registration Network
(F3RNet), for deformable registration of severely deformed organs. The proposed
method combines two parallel processing streams in a residual learning fashion.
One stream takes advantage of the full-resolution information that facilitates
accurate voxel-level registration. The other stream learns the deep multi-scale
residual representations to obtain robust recognition. We also factorize the 3D
convolution to reduce the training parameters and enhance network efficiency.
We validate the proposed method on a clinically acquired intra-patient
abdominal CT-MRI dataset and a public inspiratory and expiratory thorax CT
dataset. Experiments on both multimodal and unimodal registration demonstrate
promising results compared to state-of-the-art approaches.
- Abstract(参考訳): 変形性画像登録(DIR)は多くの画像誘導療法に必須である。
近年、ディープラーニングアプローチはDIRでかなりの人気と成功を収めている。
ほとんどのディープラーニングアプローチでは、いわゆるモノストリーム(high-to-low,low-to-high)ネットワーク構造を使い、十分な総合的な登録結果を得ることができる。
しかし, 外科的標的の特定に欠かせない, 高度に変形した地域の正確なアライメントは見過ごされがちである。
その結果、これらのアプローチは、例えば、変形した肝葉の患者内登録のような、硬変する領域に敏感ではない。
本稿では, 厳格な変形臓器の変形性登録のための新規な教師なし登録ネットワーク, すなわちフル解像度残留登録ネットワーク(F3RNet)を提案する。
提案手法は,残差学習方式で2つの並列処理ストリームを組み合わせる。
1つのストリームは、正確なvoxelレベルの登録を容易にする全解像度情報を利用する。
他のストリームは、深いマルチスケール残差表現を学習し、ロバストな認識を得る。
また,3次元畳み込みを分解してトレーニングパラメータを低減し,ネットワーク効率を向上させる。
臨床的に得られた腹腔内CT-MRIデータセットと公衆気胸CTデータセットを用いて,本法の有効性を検証した。
マルチモーダルおよびユニモーダルの登録実験は、最先端のアプローチと比較して有望な結果を示した。
関連論文リスト
- Recurrent Inference Machine for Medical Image Registration [11.351457718409788]
本稿では,リカレント推論画像登録(RIIR)ネットワークと呼ばれる新しい画像登録手法を提案する。
RIIRは、メタラーニングによる登録問題の解法として反復的に定式化される。
実験の結果、RIIRはトレーニングデータの5%しか持たない深層学習法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-19T10:06:35Z) - GSMorph: Gradient Surgery for cine-MRI Cardiac Deformable Registration [62.41725951450803]
学習に基づく変形可能な登録は、フィールドの登録精度と滑らかさをトレードオフする重み付けされた目的関数に依存する。
我々は,GSMorphと呼ばれる勾配手術機構に基づく登録モデルを構築し,複数の損失に対してパラメータフリーな高バランスを実現する。
提案手法はモデルに依存しないため,パラメータの追加や推論の遅延を伴わずに,任意のディープ登録ネットワークにマージすることができる。
論文 参考訳(メタデータ) (2023-06-26T13:32:09Z) - Recurrence With Correlation Network for Medical Image Registration [66.63200823918429]
本稿では,医療画像登録ネットワークであるRecurrence with correlation Network (RWCNet)について述べる。
これらの特徴により、2つの画像登録データセットにおける医用画像登録精度が向上することが実証された。
論文 参考訳(メタデータ) (2023-02-05T02:41:46Z) - Joint segmentation and discontinuity-preserving deformable registration:
Application to cardiac cine-MR images [74.99415008543276]
多くの深層学習に基づく登録法は、変形場は画像領域の至る所で滑らかで連続的であると仮定する。
本研究では,この課題に対処するために,不連続かつ局所的に滑らかな変形場を確保するための新しい不連続保存画像登録手法を提案する。
入力画像の構造的相関を学習するために,ネットワークのセグメンテーション成分にコアテンションブロックを提案する。
大規模心磁気共鳴画像系列を用いた物体内時間画像登録の課題について検討した。
論文 参考訳(メタデータ) (2022-11-24T23:45:01Z) - Affine Medical Image Registration with Coarse-to-Fine Vision Transformer [11.4219428942199]
本稿では,3次元医用画像登録のための学習ベースアルゴリズムであるCoarse-to-Fine Vision Transformer (C2FViT)を提案する。
本手法は, 登録精度, 堅牢性, 一般化性の観点から, 既存のCNNベースのアフィン登録法よりも優れている。
論文 参考訳(メタデータ) (2022-03-29T03:18:43Z) - Mutual information neural estimation for unsupervised multi-modal
registration of brain images [0.0]
エンド・ツー・エンドのトレーニング可能なネットワークにおける画像ペア間のMI推定による深層学習に基づく登録手法の学習指導について提案する。
以上の結果から,2層ネットワークは単モードとマルチモーダルの両方で,サブ秒のランタイムで競合する結果が得られることがわかった。
リアルタイム臨床応用は、解剖学的構造の視覚的整合性が向上し、登録障害/アウトリージが減少するのに役立つだろう。
論文 参考訳(メタデータ) (2022-01-25T13:22:34Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - A Deep Discontinuity-Preserving Image Registration Network [73.03885837923599]
ほとんどの深層学習に基づく登録法は、所望の変形場が全世界的に滑らかで連続的であると仮定する。
本稿では、より優れた登録性能とリアルな変形場を得るために、弱い教師付き深部不連続保存画像登録ネットワーク(DDIR)を提案する。
本研究では, 心臓磁気共鳴(MR)画像の登録実験において, 登録精度を大幅に向上し, より現実的な変形を予測できることを実証した。
論文 参考訳(メタデータ) (2021-07-09T13:35:59Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Unsupervised Multimodal Image Registration with Adaptative Gradient
Guidance [23.461130560414805]
教師なし学習に基づく手法は、変形可能な画像登録における精度と効率よりも有望な性能を示す。
既存の手法の予測変形場は、登録済み画像対に完全に依存する。
両モデルから推定される変形場を利用する新しい多モード登録フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T05:47:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。