論文の概要: Self-Supervised Multi-Modal Alignment for Whole Body Medical Imaging
- arxiv url: http://arxiv.org/abs/2107.06652v1
- Date: Wed, 14 Jul 2021 12:35:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-15 21:26:34.056625
- Title: Self-Supervised Multi-Modal Alignment for Whole Body Medical Imaging
- Title(参考訳): 全体医用イメージングのための自己監督型マルチモードアライメント
- Authors: Rhydian Windsor, Amir Jamaludin, Timor Kadir, Andrew Zisserman
- Abstract要約: 我々は、英国バイオバンクの2万名以上の被験者のデータセットを使用し、全体Dixon法磁気共鳴法(MR)スキャンとデュアルエネルギーX線吸収率法(DXA)スキャンを併用した。
マルチモーダル画像マッチングコントラストフレームワークを導入し、同一対象の異なるモダリティスキャンを高精度にマッチングすることができる。
適応がなければ、この対照的なトレーニングステップで学習した対応が、自動クロスモーダルスキャン登録の実行に利用できることを示す。
- 参考スコア(独自算出の注目度): 70.52819168140113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the use of self-supervised deep learning in medical
imaging in cases where two scan modalities are available for the same subject.
Specifically, we use a large publicly-available dataset of over 20,000 subjects
from the UK Biobank with both whole body Dixon technique magnetic resonance
(MR) scans and also dual-energy x-ray absorptiometry (DXA) scans. We make three
contributions: (i) We introduce a multi-modal image-matching contrastive
framework, that is able to learn to match different-modality scans of the same
subject with high accuracy. (ii) Without any adaption, we show that the
correspondences learnt during this contrastive training step can be used to
perform automatic cross-modal scan registration in a completely unsupervised
manner. (iii) Finally, we use these registrations to transfer segmentation maps
from the DXA scans to the MR scans where they are used to train a network to
segment anatomical regions without requiring ground-truth MR examples. To aid
further research, our code will be made publicly available.
- Abstract(参考訳): 本稿では,同じ被験者に対して2つのスキャンモダリティが利用可能である場合の医療画像における自己教師型深層学習の利用について検討する。
具体的には、英国バイオバンクの2万人以上の被験者を対象に、全身Dixon technique magnetic resonance(MR)スキャンとデュアルエネルギーX線吸収率(DXA)スキャンを併用した大規模な公開データセットを使用します。
i) 同じ被験者の異なるモダリティスキャンを高精度に一致させることができるマルチモーダル画像マッチングコントラストフレームワークを導入する。
(ii) 適応がなければ, このコントラストトレーニングステップで学習した対応文が, 完全に教師なしの方法で自動クロスモーダルスキャン登録を行うことができることを示す。
(iii) 最後に、これらの登録を用いて、dxaスキャンからmrスキャンへのセグメンテーションマップを転送し、地上mr例を必要とせず、解剖学的領域をセグメンテーションするためにネットワークを訓練する。
さらなる研究を支援するため、私たちのコードは公開されます。
関連論文リスト
- Towards General Text-guided Image Synthesis for Customized Multimodal Brain MRI Generation [51.28453192441364]
マルチモーダル脳磁気共鳴(MR)イメージングは神経科学や神経学において不可欠である。
現在のMR画像合成アプローチは、通常、特定のタスクのための独立したデータセットで訓練される。
テキスト誘導ユニバーサルMR画像合成モデルであるTUMSynについて述べる。
論文 参考訳(メタデータ) (2024-09-25T11:14:47Z) - X-ray2CTPA: Generating 3D CTPA scans from 2D X-ray conditioning [24.233484690096898]
胸部X線または胸部X線撮影(CXR)はCTスキャンと比較して限られた画像撮影を可能にする。
CTスキャンはCXRよりもコストが高く、放射線被曝も大きく、アクセス性も低い。
本研究では,2次元低コントラスト分解能X線入力から3次元高コントラストおよび空間分解能Aスキャンへのクロスモーダル変換について検討する。
論文 参考訳(メタデータ) (2024-06-23T13:53:35Z) - Tissue Segmentation of Thick-Slice Fetal Brain MR Scans with Guidance
from High-Quality Isotropic Volumes [52.242103848335354]
本稿では,高品位等方性ボリュームから学習した知識を高密度スライススキャンの正確な組織セグメント化のために効率的に伝達するC2DA-Netを提案する。
我々のC2DA-Netは、注釈のない厚いスライススキャンで組織分画をガイドするために、注釈付き等方性ボリュームの小さなセットを十分に利用できる。
論文 参考訳(メタデータ) (2023-08-13T12:51:15Z) - Cross Modality 3D Navigation Using Reinforcement Learning and Neural
Style Transfer [3.0152753984876854]
本稿では,MARL(Multi-Agent Reinforcement Learning)を用いて,医用画像から3次元解剖学的ボリュームのナビゲーションを行う。
我々はニューラルスタイルトランスファーを用いて,合成CT(Computed Tomography)エージェントジム環境を作成する。
我々のフレームワークはラベル付き臨床データを一切必要とせず、複数の画像翻訳技術と容易に統合できる。
論文 参考訳(メタデータ) (2021-11-05T13:11:45Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Studying Robustness of Semantic Segmentation under Domain Shift in
cardiac MRI [0.8858288982748155]
複数の臨床センターやスキャナーベンダーからの画像間でのドメイン転送の課題と機会について検討する。
本研究では、nnU-netフレームワークによって構成された固定されたU-Netアーキテクチャに基づいて、様々なデータ拡張手法とバッチ正規化層について検討する。
論文 参考訳(メタデータ) (2020-11-15T17:50:23Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z) - Self-Supervised Ultrasound to MRI Fetal Brain Image Synthesis [20.53251934808636]
胎児脳MRI(Fetal brain magnetic resonance imaging)は、発達する脳の精細な画像を提供するが、第2三期異常検診には適さない。
本稿では,臨床用US画像から直接MRライクな画像を生成することを提案する。
提案するモデルは、外部アノテーションを使わずに、エンドツーエンドでトレーニング可能で自己管理できる。
論文 参考訳(メタデータ) (2020-08-19T22:56:36Z) - Groupwise Multimodal Image Registration using Joint Total Variation [0.0]
このようなマルチモーダル画像登録のための統合総量変動に基づくコスト関数を導入する。
シミュレーション脳スキャンと実脳スキャンの両方を厳密に整列させるアルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2020-05-06T16:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。