論文の概要: AutoFuse: Automatic Fusion Networks for Deformable Medical Image
Registration
- arxiv url: http://arxiv.org/abs/2309.05271v1
- Date: Mon, 11 Sep 2023 07:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 13:27:44.224111
- Title: AutoFuse: Automatic Fusion Networks for Deformable Medical Image
Registration
- Title(参考訳): AutoFuse: 変形可能な医用画像登録のための自動核融合ネットワーク
- Authors: Mingyuan Meng, Michael Fulham, Dagan Feng, Lei Bi, and Jinman Kim
- Abstract要約: 変形可能な画像登録は、一対の画像間の高密度な非線形空間対応を見つけることを目的としている。
Deep Neural Networks(DNN)は、エンドツーエンドの高速な登録を可能にすることで広く認知されている。
我々は,ネットワーク内の多くの潜在的な場所で情報を融合する柔軟性を提供するAutoFuse(Automatic Fusion Network)を提案する。
- 参考スコア(独自算出の注目度): 11.195630893999203
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deformable image registration aims to find a dense non-linear spatial
correspondence between a pair of images, which is a crucial step for many
medical tasks such as tumor growth monitoring and population analysis.
Recently, Deep Neural Networks (DNNs) have been widely recognized for their
ability to perform fast end-to-end registration. However, DNN-based
registration needs to explore the spatial information of each image and fuse
this information to characterize spatial correspondence. This raises an
essential question: what is the optimal fusion strategy to characterize spatial
correspondence? Existing fusion strategies (e.g., early fusion, late fusion)
were empirically designed to fuse information by manually defined prior
knowledge, which inevitably constrains the registration performance within the
limits of empirical designs. In this study, we depart from existing
empirically-designed fusion strategies and develop a data-driven fusion
strategy for deformable image registration. To achieve this, we propose an
Automatic Fusion network (AutoFuse) that provides flexibility to fuse
information at many potential locations within the network. A Fusion Gate (FG)
module is also proposed to control how to fuse information at each potential
network location based on training data. Our AutoFuse can automatically
optimize its fusion strategy during training and can be generalizable to both
unsupervised registration (without any labels) and semi-supervised registration
(with weak labels provided for partial training data). Extensive experiments on
two well-benchmarked medical registration tasks (inter- and intra-patient
registration) with eight public datasets show that our AutoFuse outperforms
state-of-the-art unsupervised and semi-supervised registration methods.
- Abstract(参考訳): 変形可能な画像登録は、一対のイメージ間の高密度な非線形空間対応を見つけることを目的としており、腫瘍成長モニタリングや人口分析などの多くの医療タスクにとって重要なステップである。
近年、ディープニューラルネットワーク(DNN)は、エンドツーエンドの高速な登録を行う能力で広く認知されている。
しかし、DNNに基づく登録では、各画像の空間情報を探索し、この情報を融合して空間対応を特徴付ける必要がある。
これは、空間対応を特徴付ける最適な融合戦略とは何か?
既存の融合戦略(例えば、早期融合、後期融合)は、手動で定義された事前知識によって情報を融合するために実験的に設計された。
本研究では,既存の核融合戦略から脱却し,変形可能な画像登録のためのデータ駆動核融合戦略を開発する。
そこで本研究では,ネットワーク内の多数の潜在的場所に情報を融合する柔軟性を提供する自動融合ネットワーク(autofuse)を提案する。
トレーニングデータに基づいて、各潜在的なネットワークロケーションで情報をフューズする方法を制御するために、Fusion Gate (FG)モジュールも提案されている。
私たちのAutoFuseは、トレーニング中に自動的に融合戦略を最適化することができ、(ラベルなしで)教師なし登録と半教師なし登録の両方に一般化できます。
8つの公開データセットを用いた2つの周知の医療登録タスク(患者間登録および患者内登録)に関する広範な実験では、autofuseが最先端の教師なしおよび半監督済みの登録方法よりも優れていることが示されている。
関連論文リスト
- LDM-Morph: Latent diffusion model guided deformable image registration [2.8195553455247317]
医用画像登録のための非教師あり変形可能な登録アルゴリズム LDM-Morph を提案する。
潜在拡散モデル(LDM)から抽出したLDM-Morph統合機能を用いて意味情報を強化する。
4つのパブリックな2次元心臓画像データセットに対する大規模な実験により、提案されたLDM-Morphフレームワークは、既存の最先端CNNとTransformersベースの登録方法よりも優れていた。
論文 参考訳(メタデータ) (2024-11-23T03:04:36Z) - Dual-Attention Frequency Fusion at Multi-Scale for Joint Segmentation and Deformable Medical Image Registration [2.6089354079273512]
二重注意周波数融合(DAFF-Net)に基づくマルチタスク学習フレームワークを提案する。
DAFF-Netは、単一ステップ推定において、セグメンテーションマスクと密度変形場を同時に達成する。
3つのパブリックな3次元脳磁気共鳴画像(MRI)データセットの実験により、提案されたDAFF-Netとその教師なし変種は、最先端の登録方法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-29T11:11:04Z) - Fus-MAE: A cross-attention-based data fusion approach for Masked
Autoencoders in remote sensing [5.990692497580643]
Fus-MAEは、マスク付きオートエンコーダに基づく自己教師型学習フレームワークである。
実験により,Fus-MAEは,SAR-光データ融合に適したコントラスト学習戦略と効果的に競合できることが示された。
論文 参考訳(メタデータ) (2024-01-05T11:36:21Z) - BusReF: Infrared-Visible images registration and fusion focus on
reconstructible area using one set of features [39.575353043949725]
マルチモーダルカメラが連携するシナリオでは、非アライメント画像を扱う際の問題は回避できない。
既存の画像融合アルゴリズムは、より正確な融合結果を得るために、厳密に登録された入力画像対に大きく依存している。
本稿では,BusRefと呼ばれる単一のフレームワークにおける画像登録と融合の問題に対処することを目的とする。
論文 参考訳(メタデータ) (2023-12-30T17:32:44Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - ACSGRegNet: A Deep Learning-based Framework for Unsupervised Joint
Affine and Diffeomorphic Registration of Lumbar Spine CT via Cross- and
Self-Attention Fusion [4.068962439293273]
本研究では,医用画像登録のためのエンドツーエンドの深層学習フレームワークを提案する。
ACSGRegNetは、画像間特徴対応を確立するクロスアテンションモジュールと、画像内解剖学的構造を認識する自己アテンションモジュールを統合する。
我々の手法は平均Dice 0.963 と平均距離誤差 0.321mm を達成し,SOTA (State-of-the-art) よりも優れている。
論文 参考訳(メタデータ) (2022-08-04T13:13:48Z) - Unsupervised Foggy Scene Understanding via Self Spatial-Temporal Label
Diffusion [51.11295961195151]
運転シーンの霧画像列の特徴を利用して、自信ある擬似ラベルを密度化する。
局所的な空間的類似性と逐次画像データの隣接時間対応の2つの発見に基づいて,新たなターゲット・ドメイン駆動擬似ラベル拡散方式を提案する。
本手法は,2つの天然霧のデータセット上で51.92%,53.84%の平均交叉結合(mIoU)を達成するのに有効である。
論文 参考訳(メタデータ) (2022-06-10T05:16:50Z) - Automated Learning for Deformable Medical Image Registration by Jointly
Optimizing Network Architectures and Objective Functions [69.6849409155959]
本稿では、アーキテクチャとそれに対応する学習目標の両方を協調的に最適化する自動学習登録アルゴリズム(AutoReg)を提案する。
マルチサイトボリュームデータセットと各種登録タスクについて,画像登録実験を行った。
我々のAutoRegは、与えられたボリュームに対して最適な深層登録ネットワークを自動的に学習し、最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2022-03-14T01:54:38Z) - Similarity-Aware Fusion Network for 3D Semantic Segmentation [87.51314162700315]
本研究では,3次元セマンティックセグメンテーションのための2次元画像と3次元点雲を適応的に融合する類似性認識融合ネットワーク(SAFNet)を提案する。
我々は、入力とバックプロジェクションされた(2Dピクセルから)点雲の間の幾何学的および文脈的類似性を初めて学習する、後期融合戦略を採用している。
SAFNetは、様々なデータ完全性にまたがって、既存の最先端の核融合ベースのアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2021-07-04T09:28:18Z) - CAR-Net: Unsupervised Co-Attention Guided Registration Network for Joint
Registration and Structure Learning [73.03885837923599]
我々は,新しい深層学習ネットワークCAR-Net(Co-Attention Guided Registration Network)を提案する。
CAR-Netはコアテンションブロックを用いて入力の新しい表現を学習し、固定画像と移動画像の登録を駆動する。
イギリスバイオバンクの心臓磁気共鳴画像データを用いた実験により、CAR-Netは最先端の教師なし登録法よりも高い登録精度とスムーズな変形場が得られることが示された。
論文 参考訳(メタデータ) (2021-06-11T23:25:49Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。