論文の概要: Mutual information neural estimation for unsupervised multi-modal
registration of brain images
- arxiv url: http://arxiv.org/abs/2201.10305v1
- Date: Tue, 25 Jan 2022 13:22:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 23:07:15.116453
- Title: Mutual information neural estimation for unsupervised multi-modal
registration of brain images
- Title(参考訳): 脳画像の教師なしマルチモーダル登録のための相互情報ニューラル推定
- Authors: Gerard Snaauw (1), Michele Sasdelli (1), Gabriel Maicas (1), Stephan
Lau (1 and 2), Johan Verjans (1 and 2), Mark Jenkinson (1 and 2), Gustavo
Carneiro (1) ((1) Australian Institute for Machine Learning (AIML),
University of Adelaide, Adelaide, Australia, (2) South Australian Health and
Medical Research Institute (SAHMRI), Adelaide, Australia)
- Abstract要約: エンド・ツー・エンドのトレーニング可能なネットワークにおける画像ペア間のMI推定による深層学習に基づく登録手法の学習指導について提案する。
以上の結果から,2層ネットワークは単モードとマルチモーダルの両方で,サブ秒のランタイムで競合する結果が得られることがわかった。
リアルタイム臨床応用は、解剖学的構造の視覚的整合性が向上し、登録障害/アウトリージが減少するのに役立つだろう。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many applications in image-guided surgery and therapy require fast and
reliable non-linear, multi-modal image registration. Recently proposed
unsupervised deep learning-based registration methods have demonstrated
superior performance compared to iterative methods in just a fraction of the
time. Most of the learning-based methods have focused on mono-modal image
registration. The extension to multi-modal registration depends on the use of
an appropriate similarity function, such as the mutual information (MI). We
propose guiding the training of a deep learning-based registration method with
MI estimation between an image-pair in an end-to-end trainable network. Our
results show that a small, 2-layer network produces competitive results in both
mono- and multimodal registration, with sub-second run-times. Comparisons to
both iterative and deep learning-based methods show that our MI-based method
produces topologically and qualitatively superior results with an extremely low
rate of non-diffeomorphic transformations. Real-time clinical application will
benefit from a better visual matching of anatomical structures and less
registration failures/outliers.
- Abstract(参考訳): 画像誘導手術や治療における多くの応用には、高速で信頼性の高い非線形マルチモーダル画像登録が必要である。
近年,教師なしの深層学習に基づく登録手法は,短時間で反復的な手法よりも優れた性能を示した。
学習に基づく手法の多くはモノモダル画像登録に重点を置いている。
マルチモーダル登録の拡張は、相互情報(MI)のような適切な類似性関数の使用に依存する。
エンド・ツー・エンドのトレーニング可能なネットワークにおける画像ペア間のMI推定による深層学習に基づく登録手法の学習指導について提案する。
この結果から,2層ネットワークは単モードとマルチモーダルの両方で,サブ秒のランタイムで競合する結果が得られることがわかった。
反復法と深層学習法を比較すると,MI法は位相的および定性的に優れた結果が得られ,非微分型変換の速度は極めて低かった。
リアルタイム臨床応用は、解剖学的構造の視覚的整合性が向上し、登録障害/アウトリージが減少する。
関連論文リスト
- PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - ConKeD: Multiview contrastive descriptor learning for keypoint-based retinal image registration [6.618504904743609]
網膜画像登録のための記述子を学習するための新しい深層学習手法であるConKeDを提案する。
現在の登録方式とは対照的に,本手法では,新しい多正多負のコントラスト学習戦略を採用している。
本実験は, 新規多陽性多負戦略の利点を実証するものである。
論文 参考訳(メタデータ) (2024-01-11T13:22:54Z) - Convolutional autoencoder-based multimodal one-class classification [80.52334952912808]
1クラス分類は、単一のクラスからのデータを用いた学習のアプローチを指す。
マルチモーダルデータに適した深層学習一クラス分類法を提案する。
論文 参考訳(メタデータ) (2023-09-25T12:31:18Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Is Image-to-Image Translation the Panacea for Multimodal Image
Registration? A Comparative Study [4.00906288611816]
マルチモーダルバイオメディカル画像登録作業における現代i2i翻訳法の適用性に関する実証研究を行った。
4つのGAN(Generative Adrial Network)ベースの方法と1つのコントラスト表現学習方法のパフォーマンスを比較します。
その結果,I2I翻訳は,登録対象のモダリティが明確に相関している場合には有用であるが,I2I翻訳手法では明らかに異なる特性を示すモダリティの登録が不十分であることが示唆された。
論文 参考訳(メタデータ) (2021-03-30T11:28:21Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - F3RNet: Full-Resolution Residual Registration Network for Deformable
Image Registration [21.99118499516863]
変形性画像登録(DIR)は多くの画像誘導療法に必須である。
我々は、新しい教師なし登録ネットワーク、すなわちF3RNet(Full-Resolution Residual Registration Network)を提案する。
1つのストリームは、正確なボクセルレベルの登録を容易にするフルレゾリューション情報を利用する。
他方のストリームは、深いマルチスケールの残差表現を学習し、ロバストな認識を得る。
論文 参考訳(メタデータ) (2020-09-15T15:05:54Z) - Adversarial Uni- and Multi-modal Stream Networks for Multimodal Image
Registration [20.637787406888478]
CT画像とMR画像との変形性画像登録は多くの画像誘導療法において不可欠である。
本稿では,新しい翻訳に基づく教師なしデフォルマブル画像登録手法を提案する。
本手法は2つの臨床データセットで評価され,最先端の従来法と学習法と比較して有望な結果が得られた。
論文 参考訳(メタデータ) (2020-07-06T14:44:06Z) - MvMM-RegNet: A new image registration framework based on multivariate
mixture model and neural network estimation [14.36896617430302]
生成モデル(MvMM)とニューラルネットワーク推定に基づく新しい画像登録フレームワークを提案する。
外観と解剖情報を一体化した生成モデルを構築し、グループ登録が可能な新規な損失関数を導出する。
マルチモーダル心画像への様々な応用のためのフレームワークの汎用性を強調した。
論文 参考訳(メタデータ) (2020-06-28T11:19:15Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。