論文の概要: SynthMorph: learning contrast-invariant registration without acquired
images
- arxiv url: http://arxiv.org/abs/2004.10282v4
- Date: Thu, 3 Mar 2022 14:46:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 07:51:52.959680
- Title: SynthMorph: learning contrast-invariant registration without acquired
images
- Title(参考訳): SynthMorph: 取得した画像のないコントラスト不変登録学習
- Authors: Malte Hoffmann, Benjamin Billot, Douglas N. Greve, Juan Eugenio
Iglesias, Bruce Fischl, Adrian V. Dalca
- Abstract要約: 画像データを取得せずに画像登録を学習するための戦略を導入する。
この戦略は任意のMRIコントラストの堅牢かつ正確な登録を可能にする。
- 参考スコア(独自算出の注目度): 8.0963891430422
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a strategy for learning image registration without acquired
imaging data, producing powerful networks agnostic to contrast introduced by
magnetic resonance imaging (MRI). While classical registration methods
accurately estimate the spatial correspondence between images, they solve an
optimization problem for every new image pair. Learning-based techniques are
fast at test time but limited to registering images with contrasts and
geometric content similar to those seen during training. We propose to remove
this dependency on training data by leveraging a generative strategy for
diverse synthetic label maps and images that exposes networks to a wide range
of variability, forcing them to learn more invariant features. This approach
results in powerful networks that accurately generalize to a broad array of MRI
contrasts. We present extensive experiments with a focus on 3D neuroimaging,
showing that this strategy enables robust and accurate registration of
arbitrary MRI contrasts even if the target contrast is not seen by the networks
during training. We demonstrate registration accuracy surpassing the state of
the art both within and across contrasts, using a single model. Critically,
training on arbitrary shapes synthesized from noise distributions results in
competitive performance, removing the dependency on acquired data of any kind.
Additionally, since anatomical label maps are often available for the anatomy
of interest, we show that synthesizing images from these dramatically boosts
performance, while still avoiding the need for real intensity images. Our code
is available at https://w3id.org/synthmorph.
- Abstract(参考訳): 画像データを取得することなく画像登録を学習する手法を導入し、MRI(MRI)によるコントラストに依存しない強力なネットワークを創出する。
古典的登録法は画像間の空間対応を正確に推定するが、新しい画像ペアごとに最適化問題を解く。
学習ベースのテクニックはテスト時に高速だが、トレーニング中に見られるものと同様のコントラストと幾何学的コンテンツのイメージ登録に限定される。
ネットワークを多種多様な可変性に露出させる多種多様な合成ラベルマップと画像の生成戦略を利用して、この学習データへの依存を解消し、より不変な特徴を学習させることを提案する。
このアプローチは、幅広いMRIコントラストに正確に一般化する強力なネットワークをもたらす。
本研究は,3次元ニューロイメージングに焦点をあてた広範な実験を行い,訓練中のネットワークで目標コントラストが見られなくても,任意のmriコントラストのロバストで正確なレジストレーションを可能にすることを示す。
一つのモデルを用いて,コントラスト内およびコントラスト間における美術品の状態を超える登録精度を示す。
重要なことは、ノイズ分布から合成された任意の形状のトレーニングは競合性能をもたらし、任意の種類の取得データに依存する。
さらに、解剖学的ラベルマップは、しばしば解剖学的に利用できるため、これらの画像からの合成は、真の強度画像の必要性を回避しつつ、性能を劇的に向上させることを示す。
私たちのコードはhttps://w3id.org/synthmorph.comで利用可能です。
関連論文リスト
- Autoregressive Sequence Modeling for 3D Medical Image Representation [48.706230961589924]
本稿では, 自己回帰シーケンス事前学習フレームワークを用いて, 3次元医用画像表現を学習するための先駆的手法を提案する。
我々は,空間的,コントラスト的,意味的相関に基づく様々な3次元医用画像にアプローチし,トークンシーケンス内の相互接続された視覚トークンとして扱う。
論文 参考訳(メタデータ) (2024-09-13T10:19:10Z) - Anatomy-aware and acquisition-agnostic joint registration with SynthMorph [6.017634371712142]
アフィン画像登録は、医用画像解析の基盤となっている。
ディープラーニング(DL)メソッドは、画像対を出力変換にマッピングする関数を学ぶ。
ほとんどのアフィン法は、ユーザが調整したい解剖学に依存しない。つまり、アルゴリズムが画像のすべての構造を考慮すれば、登録は不正確なものになる。
われわれはこれらの欠点をSynthMorphで解決する。これは高速で対称で、微分型で使い易いDLツールで、任意の脳画像の関節アフィン変形性登録を行う。
論文 参考訳(メタデータ) (2023-01-26T18:59:33Z) - Multi-scale Transformer Network with Edge-aware Pre-training for
Cross-Modality MR Image Synthesis [52.41439725865149]
クロスモダリティ磁気共鳴(MR)画像合成は、与えられたモダリティから欠落するモダリティを生成するために用いられる。
既存の(教師付き学習)手法は、効果的な合成モデルを訓練するために、多くのペア化されたマルチモーダルデータを必要とすることが多い。
マルチスケールトランスフォーマーネットワーク(MT-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T11:40:40Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - SynthStrip: Skull-Stripping for Any Brain Image [7.846209440615028]
我々は,学習に基づく迅速な脳抽出ツールであるSynthStripを紹介した。
解剖学的セグメンテーションを活用することで、SynthStripは、解剖学、強度分布、および医療画像の現実的な範囲をはるかに超える人工的なトレーニングデータセットを生成する。
一般的な頭蓋骨切断ベースラインよりも精度が大幅に向上した。
論文 参考訳(メタデータ) (2022-03-18T14:08:20Z) - Deformable Image Registration using Neural ODEs [15.245085400790002]
ニューラル常微分方程式(NODE)を利用した汎用的で高速かつ高精度な微分型画像登録フレームワークを提案する。
従来の最適化手法と比較して、我々のフレームワークは実行時間を数十分から数十秒に短縮する。
実験の結果, 提案手法の登録結果は, 各種測定値において, 最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2021-08-07T12:54:17Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - Exploring Intensity Invariance in Deep Neural Networks for Brain Image
Registration [0.0]
深層学習に基づく画像登録における入力画像対間の強度分布の影響について検討する。
構造的類似性に基づく損失をトレーニングしたディープラーニングモデルは、両方のデータセットでよりよく機能しているようだ。
論文 参考訳(メタデータ) (2020-09-21T17:49:03Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - A Learning Strategy for Contrast-agnostic MRI Segmentation [8.264160978159634]
我々は、非前処理脳MRIスキャンのコントラスト非依存的セマンティックセマンティックセグメンテーションを可能にするディープラーニング戦略を提案する。
提案した学習手法であるSynthSegは,訓練中のハエのコントラストが多種多様である合成サンプル画像を生成する。
我々は,1000名以上の被験者と4種類のMRコントラストからなる4種類のデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2020-03-04T11:00:57Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。