論文の概要: Modality-Agnostic Structural Image Representation Learning for Deformable Multi-Modality Medical Image Registration
- arxiv url: http://arxiv.org/abs/2402.18933v2
- Date: Mon, 1 Apr 2024 02:06:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-02 19:58:13.799296
- Title: Modality-Agnostic Structural Image Representation Learning for Deformable Multi-Modality Medical Image Registration
- Title(参考訳): 変形可能なマルチモーダル医用画像登録のためのモダリティ非依存構造画像表現学習
- Authors: Tony C. W. Mok, Zi Li, Yunhao Bai, Jianpeng Zhang, Wei Liu, Yan-Jie Zhou, Ke Yan, Dakai Jin, Yu Shi, Xiaoli Yin, Le Lu, Ling Zhang,
- Abstract要約: 本稿では,識別的・コントラスト的・非分散的な深部構造画像表現を学習するためのモダリティ非依存的構造表現学習法を提案する。
本手法は,従来の局所的構造表現や統計的類似度尺度よりも識別性と精度の点で優れている。
- 参考スコア(独自算出の注目度): 22.157402663162877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Establishing dense anatomical correspondence across distinct imaging modalities is a foundational yet challenging procedure for numerous medical image analysis studies and image-guided radiotherapy. Existing multi-modality image registration algorithms rely on statistical-based similarity measures or local structural image representations. However, the former is sensitive to locally varying noise, while the latter is not discriminative enough to cope with complex anatomical structures in multimodal scans, causing ambiguity in determining the anatomical correspondence across scans with different modalities. In this paper, we propose a modality-agnostic structural representation learning method, which leverages Deep Neighbourhood Self-similarity (DNS) and anatomy-aware contrastive learning to learn discriminative and contrast-invariance deep structural image representations (DSIR) without the need for anatomical delineations or pre-aligned training images. We evaluate our method on multiphase CT, abdomen MR-CT, and brain MR T1w-T2w registration. Comprehensive results demonstrate that our method is superior to the conventional local structural representation and statistical-based similarity measures in terms of discriminability and accuracy.
- Abstract(参考訳): 異なる画像モダリティにまたがる密度の解剖学的対応を確立することは、多くの医学的画像分析研究と画像誘導放射線治療の基礎的かつ困難な手順である。
既存のマルチモード画像登録アルゴリズムは、統計に基づく類似度測定や局所構造画像表現に依存している。
しかし、前者は局所的に変化するノイズに敏感であり、後者はマルチモーダルスキャンにおける複雑な解剖学的構造に対処するのに十分な識別性はない。
本稿では, 近親相似性(DNS)と解剖学的相似性(anatomy-aware contrastive learning)を活用して, 解剖的記述や事前整列した訓練画像を必要としない, 識別的・コントラスト的深部構造画像表現(DSIR)を学習するモダリティ非依存型構造表現学習法を提案する。
我々は多相CT,腹部MRI-CT,脳MRT1w-T2wの登録について検討した。
総合的な結果から,本手法は従来の局所的構造表現や統計的類似度尺度よりも識別性と精度の点で優れていることが示された。
関連論文リスト
- QUBIQ: Uncertainty Quantification for Biomedical Image Segmentation Challenge [93.61262892578067]
医用画像分割作業の不確実性、特にラター間変動性は重要な課題である。
この可変性は、自動セグメンテーションアルゴリズムの開発と評価に直接影響を及ぼす。
バイオメディカル画像量化チャレンジ(QUBIQ)における不確実性の定量化のベンチマーク結果を報告する。
論文 参考訳(メタデータ) (2024-03-19T17:57:24Z) - Bayesian Unsupervised Disentanglement of Anatomy and Geometry for Deep Groupwise Image Registration [50.62725807357586]
本稿では,マルチモーダル群画像登録のための一般ベイズ学習フレームワークを提案する。
本稿では,潜在変数の推論手順を実現するために,新しい階層的変分自動符号化アーキテクチャを提案する。
心臓、脳、腹部の医療画像から4つの異なるデータセットを含む,提案された枠組みを検証する実験を行った。
論文 参考訳(メタデータ) (2024-01-04T08:46:39Z) - Region-based Contrastive Pretraining for Medical Image Retrieval with
Anatomic Query [56.54255735943497]
医用画像検索のための地域別コントラスト事前トレーニング(RegionMIR)
医用画像検索のための領域ベースコントラスト事前トレーニング(RegionMIR)について紹介する。
論文 参考訳(メタデータ) (2023-05-09T16:46:33Z) - Unsupervised Image Registration Towards Enhancing Performance and
Explainability in Cardiac And Brain Image Analysis [3.5718941645696485]
モダリティ内およびモダリティ内アフィンおよび非リグイド画像登録は、臨床画像診断において必須の医用画像解析プロセスである。
本稿では、アフィンおよび非剛性変換を正確にモデル化できる教師なしディープラーニング登録手法を提案する。
本手法は,モーダリティ不変の潜在反感を学習するために,双方向のモーダリティ画像合成を行う。
論文 参考訳(メタデータ) (2022-03-07T12:54:33Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Patch-based field-of-view matching in multi-modal images for
electroporation-based ablations [0.6285581681015912]
マルチモーダルイメージングセンサーは、現在、介入治療作業フローの異なるステップに関与している。
この情報を統合するには、取得した画像間の観測された解剖の正確な空間的アライメントに依存する。
本稿では, ボクセルパッチを用いた地域登録手法が, ボクセルワイドアプローチと「グローバルシフト」アプローチとの間に優れた構造的妥協をもたらすことを示す。
論文 参考訳(メタデータ) (2020-11-09T11:27:45Z) - Adversarial Uni- and Multi-modal Stream Networks for Multimodal Image
Registration [20.637787406888478]
CT画像とMR画像との変形性画像登録は多くの画像誘導療法において不可欠である。
本稿では,新しい翻訳に基づく教師なしデフォルマブル画像登録手法を提案する。
本手法は2つの臨床データセットで評価され,最先端の従来法と学習法と比較して有望な結果が得られた。
論文 参考訳(メタデータ) (2020-07-06T14:44:06Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。