論文の概要: $\mathcal{X}$-Metric: An N-Dimensional Information-Theoretic Framework
for Groupwise Registration and Deep Combined Computing
- arxiv url: http://arxiv.org/abs/2211.01631v1
- Date: Thu, 3 Nov 2022 07:39:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 13:27:35.416463
- Title: $\mathcal{X}$-Metric: An N-Dimensional Information-Theoretic Framework
for Groupwise Registration and Deep Combined Computing
- Title(参考訳): $\mathcal{x}$-metric:n-次元情報理論によるグループ登録とディープコンバインドコンピューティングの枠組み
- Authors: Xinzhe Luo and Xiahai Zhuang
- Abstract要約: 本稿では, 統計的依存性を推定し, 医用画像間の解剖学的対応を見出すための一般的な確率的枠組みを提案する。
この方法は、共通解剖学を潜伏変数として表現することで、$N$次元の関節強度分布の新たな定式化に基づいている。
マルチモーダルなグループワイド登録,ダイナミックコントラスト強調磁気共鳴画像の運動補正,マルチモーダルな医用画像のディープコンバインド計算など,モデルの汎用性と適用性を示す実験を行った。
- 参考スコア(独自算出の注目度): 14.36896617430302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a generic probabilistic framework for estimating the
statistical dependency and finding the anatomical correspondences among an
arbitrary number of medical images. The method builds on a novel formulation of
the $N$-dimensional joint intensity distribution by representing the common
anatomy as latent variables and estimating the appearance model with
nonparametric estimators. Through connection to maximum likelihood and the
expectation-maximization algorithm, an information\hyp{}theoretic metric called
$\mathcal{X}$-metric and a co-registration algorithm named $\mathcal{X}$-CoReg
are induced, allowing groupwise registration of the $N$ observed images with
computational complexity of $\mathcal{O}(N)$. Moreover, the method naturally
extends for a weakly-supervised scenario where anatomical labels of certain
images are provided. This leads to a combined\hyp{}computing framework
implemented with deep learning, which performs registration and segmentation
simultaneously and collaboratively in an end-to-end fashion. Extensive
experiments were conducted to demonstrate the versatility and applicability of
our model, including multimodal groupwise registration, motion correction for
dynamic contrast enhanced magnetic resonance images, and deep combined
computing for multimodal medical images. Results show the superiority of our
method in various applications in terms of both accuracy and efficiency,
highlighting the advantage of the proposed representation of the imaging
process.
- Abstract(参考訳): 本稿では,統計的依存性を推定し,任意の数の医療画像間の解剖学的対応を見出すための汎用的確率的枠組みを提案する。
本手法は,一般解剖学を潜伏変数として表現し,非パラメトリック推定器を用いて外観モデルを推定することにより,N$次元関節強度分布の新たな定式化に基づいている。
最大可能性と期待最大化アルゴリズムとの接続により、$\mathcal{X}$-metric と呼ばれる Information\hyp{} 理論メトリックと $\mathcal{X}$-CoReg という共登録アルゴリズムが誘導され、$N$ 観測された画像を$\mathcal{O}(N)$の計算複雑性でグループ的に登録できる。
さらに、特定の画像の解剖学的ラベルが提供される弱制御シナリオに対して、本手法は自然に拡張される。
これにより、ディープラーニングで実装された複合型\hyp{}計算フレームワークが、エンドツーエンドで同時かつ協調的に登録およびセグメンテーションを実行する。
マルチモーダル・グループワイド・レジストレーション,ダイナミックコントラスト強調磁気共鳴画像の運動補正,マルチモーダル・メディカル・イメージのディープ・コンバインド・コンピューティングなど,モデルの汎用性と適用性を示す実験を行った。
その結果,本手法の精度と効率の両面から,様々な応用において優位性を示し,提案した画像の表現の利点を浮き彫りにした。
関連論文リスト
- Bayesian Unsupervised Disentanglement of Anatomy and Geometry for Deep Groupwise Image Registration [50.62725807357586]
本稿では,マルチモーダル群画像登録のための一般ベイズ学習フレームワークを提案する。
本稿では,潜在変数の推論手順を実現するために,新しい階層的変分自動符号化アーキテクチャを提案する。
心臓、脳、腹部の医療画像から4つの異なるデータセットを含む,提案された枠組みを検証する実験を行った。
論文 参考訳(メタデータ) (2024-01-04T08:46:39Z) - DISA: DIfferentiable Similarity Approximation for Universal Multimodal
Registration [39.44133108254786]
表現力のあるクロスモーダル記述子を作成するための汎用フレームワークを提案する。
私たちは、小さな畳み込みニューラルネットワークの特徴空間において、既存のメトリクスをドット積で近似することで、これを実現する。
本手法は局所的なパッチベースの指標よりも数桁高速であり,臨床現場で直接適用することができる。
論文 参考訳(メタデータ) (2023-07-19T12:12:17Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Representation Disentanglement for Multi-modal MR Analysis [15.498244253687337]
近年の研究では、マルチモーダルディープラーニング分析は、画像から解剖学的(形状)およびモダリティ(外観)表現を明示的に切り離すことから恩恵を受けることができることが示唆されている。
対象とモダリティをまたいだ表現の類似性関係を正規化するマージン損失を提案する。
頑健なトレーニングを実現するため,全てのモダリティの画像を符号化する単一モデルの設計のために条件付き畳み込みを導入する。
論文 参考訳(メタデータ) (2021-02-23T02:08:38Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Multi-structure bone segmentation in pediatric MR images with combined
regularization from shape priors and adversarial network [0.4588028371034407]
異種小児磁気共鳴(MR)画像のセグメント化に難渋する課題に対して,新たにトレーニングした正規化畳み込みエンコーダデコーダネットワークを提案する。
グローバルに一貫した予測を得るために,オートエンコーダで学習した非線形形状表現から得られる,形状先行に基づく正規化を組み込む。
提案手法は,Dice, 感度, 特異性, 最大対称表面距離, 平均対称表面距離, および相対絶対体積差の測定値について, 従来提案した手法と同等あるいは同等に動作した。
論文 参考訳(メタデータ) (2020-09-15T13:39:53Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z) - MvMM-RegNet: A new image registration framework based on multivariate
mixture model and neural network estimation [14.36896617430302]
生成モデル(MvMM)とニューラルネットワーク推定に基づく新しい画像登録フレームワークを提案する。
外観と解剖情報を一体化した生成モデルを構築し、グループ登録が可能な新規な損失関数を導出する。
マルチモーダル心画像への様々な応用のためのフレームワークの汎用性を強調した。
論文 参考訳(メタデータ) (2020-06-28T11:19:15Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。