論文の概要: DISA: DIfferentiable Similarity Approximation for Universal Multimodal
Registration
- arxiv url: http://arxiv.org/abs/2307.09931v1
- Date: Wed, 19 Jul 2023 12:12:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 14:06:30.016875
- Title: DISA: DIfferentiable Similarity Approximation for Universal Multimodal
Registration
- Title(参考訳): disa: universal multimodal registration に対する微分可能類似性近似
- Authors: Matteo Ronchetti, Wolfgang Wein, Nassir Navab, Oliver Zettinig,
Raphael Prevost
- Abstract要約: 表現力のあるクロスモーダル記述子を作成するための汎用フレームワークを提案する。
私たちは、小さな畳み込みニューラルネットワークの特徴空間において、既存のメトリクスをドット積で近似することで、これを実現する。
本手法は局所的なパッチベースの指標よりも数桁高速であり,臨床現場で直接適用することができる。
- 参考スコア(独自算出の注目度): 39.44133108254786
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multimodal image registration is a challenging but essential step for
numerous image-guided procedures. Most registration algorithms rely on the
computation of complex, frequently non-differentiable similarity metrics to
deal with the appearance discrepancy of anatomical structures between imaging
modalities. Recent Machine Learning based approaches are limited to specific
anatomy-modality combinations and do not generalize to new settings. We propose
a generic framework for creating expressive cross-modal descriptors that enable
fast deformable global registration. We achieve this by approximating existing
metrics with a dot-product in the feature space of a small convolutional neural
network (CNN) which is inherently differentiable can be trained without
registered data. Our method is several orders of magnitude faster than local
patch-based metrics and can be directly applied in clinical settings by
replacing the similarity measure with the proposed one. Experiments on three
different datasets demonstrate that our approach generalizes well beyond the
training data, yielding a broad capture range even on unseen anatomies and
modality pairs, without the need for specialized retraining. We make our
training code and data publicly available.
- Abstract(参考訳): マルチモーダル画像登録は、多数の画像誘導手順において難しいが必須のステップである。
ほとんどの登録アルゴリズムは、画像モダリティ間の解剖学的構造の外観の相違に対処するために、複雑でしばしば微分不能な類似度メトリクスの計算に依存している。
最近の機械学習ベースのアプローチは、特定の解剖学とモダリティの組み合わせに限られており、新しい設定に一般化しない。
高速に変形可能なグローバル登録を可能にする表現型クロスモーダルディスクリプタを作成するための汎用フレームワークを提案する。
我々は、登録データなしで本質的に識別可能な小さな畳み込みニューラルネットワーク(CNN)の特徴空間において、既存のメトリクスをドット積で近似することで、これを実現する。
本手法は,局所的なパッチベースの指標よりも数桁高速で,類似度測定を提案手法に置き換えることで臨床現場で直接適用することができる。
3つの異なるデータセットの実験により、我々のアプローチはトレーニングデータを超えてはるかに一般化され、特殊な再トレーニングを必要とせず、目に見えない解剖学とモダリティペアでも広い捕獲範囲が得られます。
トレーニングコードとデータを公開しています。
関連論文リスト
- Bayesian Unsupervised Disentanglement of Anatomy and Geometry for Deep Groupwise Image Registration [50.62725807357586]
本稿では,マルチモーダル群画像登録のための一般ベイズ学習フレームワークを提案する。
本稿では,潜在変数の推論手順を実現するために,新しい階層的変分自動符号化アーキテクチャを提案する。
心臓、脳、腹部の医療画像から4つの異なるデータセットを含む,提案された枠組みを検証する実験を行った。
論文 参考訳(メタデータ) (2024-01-04T08:46:39Z) - Cross-Modal Vertical Federated Learning for MRI Reconstruction [42.527873703840996]
フェデレート・ラーニング(Federated Learning)は、複数の病院がプライバシーの開示なしに共有モデルを共同で学習することを可能にする。
我々は、MRI再建を促進するための新しいフレームワーク、フェデレート・一貫性規則化制約付き特徴分散(Fed-CRFD)を開発した。
本手法は,領域シフト問題を緩和しつつ,病院からのマルチソースデータを完全に活用することができる。
論文 参考訳(メタデータ) (2023-06-05T08:07:01Z) - Bayesian intrinsic groupwise registration via explicit hierarchical
disentanglement [18.374535632681884]
階層的ベイズ推論の手順としてグループ登録を定式化する一般的な枠組みを提案する。
本稿では, 共用構造表現の共用学習を容易にする, 後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後
その結果,マルチモーダルなグループ登録をエンドツーエンドで実現するためのフレームワークの有効性が示された。
論文 参考訳(メタデータ) (2022-06-06T06:13:24Z) - Mutual information neural estimation for unsupervised multi-modal
registration of brain images [0.0]
エンド・ツー・エンドのトレーニング可能なネットワークにおける画像ペア間のMI推定による深層学習に基づく登録手法の学習指導について提案する。
以上の結果から,2層ネットワークは単モードとマルチモーダルの両方で,サブ秒のランタイムで競合する結果が得られることがわかった。
リアルタイム臨床応用は、解剖学的構造の視覚的整合性が向上し、登録障害/アウトリージが減少するのに役立つだろう。
論文 参考訳(メタデータ) (2022-01-25T13:22:34Z) - Few-shot image segmentation for cross-institution male pelvic organs
using registration-assisted prototypical learning [13.567073992605797]
本研究は,医用画像のための最初の3D画像間セグメンテーションネットワークを提案する。
興味のある8つの領域を持つ前立腺がん患者のラベル付き多施設データセットを使用する。
内蔵登録機構は、被験者間の一貫性のある解剖学の事前知識を効果的に活用することができる。
論文 参考訳(メタデータ) (2022-01-17T11:44:10Z) - Learning Multi-Modal Volumetric Prostate Registration with Weak
Inter-Subject Spatial Correspondence [2.6894568533991543]
MRシークエンスにおける前立腺の位置に関する事前情報のための補助入力をニューラルネットワークに導入する。
MR-TRUS前立腺データのラベルが弱いことから,最先端のディープラーニング手法に匹敵する登録品質を示した。
論文 参考訳(メタデータ) (2021-02-09T16:48:59Z) - Deep Representational Similarity Learning for analyzing neural
signatures in task-based fMRI dataset [81.02949933048332]
本稿では、表現類似度分析(RSA)の深部拡張であるDRSL(Deep Representational similarity Learning)を開発する。
DRSLは、多数の被験者を持つfMRIデータセットにおける様々な認知タスク間の類似性を分析するのに適している。
論文 参考訳(メタデータ) (2020-09-28T18:30:14Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - MS-Net: Multi-Site Network for Improving Prostate Segmentation with
Heterogeneous MRI Data [75.73881040581767]
本稿では,ロバスト表現を学習し,前立腺のセグメンテーションを改善するための新しいマルチサイトネットワーク(MS-Net)を提案する。
当社のMS-Netは,すべてのデータセットのパフォーマンスを一貫して改善し,マルチサイト学習における最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2020-02-09T14:11:50Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。