論文の概要: JUMP: A joint multimodal registration pipeline for neuroimaging with
minimal preprocessing
- arxiv url: http://arxiv.org/abs/2401.14250v1
- Date: Thu, 25 Jan 2024 15:40:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 14:05:55.154033
- Title: JUMP: A joint multimodal registration pipeline for neuroimaging with
minimal preprocessing
- Title(参考訳): JUMP:ミニマル前処理によるニューロイメージングのためのマルチモーダル登録パイプライン
- Authors: Adria Casamitjana and Juan Eugenio Iglesias and Raul Tudela and Aida
Ninerola-Baizan and Roser Sala-Llonch
- Abstract要約: 予備処理が最小限に抑えられた無バイアスで頑健な神経画像モダリティ登録のためのパイプラインを提案する。
パイプラインは現在、構造MRI、静止状態fMRI、アミロイドPET画像で動作する。
ケースコントロール研究で得られたバイオマーカーの予測力を示し、異なる画像のモダリティ間の相互関係について検討する。
- 参考スコア(独自算出の注目度): 1.3549498237473223
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a pipeline for unbiased and robust multimodal registration of
neuroimaging modalities with minimal pre-processing. While typical multimodal
studies need to use multiple independent processing pipelines, with diverse
options and hyperparameters, we propose a single and structured framework to
jointly process different image modalities. The use of state-of-the-art
learning-based techniques enables fast inferences, which makes the presented
method suitable for large-scale and/or multi-cohort datasets with a diverse
number of modalities per session. The pipeline currently works with structural
MRI, resting state fMRI and amyloid PET images. We show the predictive power of
the derived biomarkers using in a case-control study and study the cross-modal
relationship between different image modalities. The code can be found in
https: //github.com/acasamitjana/JUMP.
- Abstract(参考訳): 予備処理が最小限の神経画像モダリティの無バイアスかつ頑健なマルチモーダル登録のためのパイプラインを提案する。
典型的なマルチモーダル研究では、多様なオプションとハイパーパラメータを持つ複数の独立した処理パイプラインを使用する必要があるが、異なるイメージモダリティを共同で処理するための単一で構造化されたフレームワークを提案する。
最先端の学習技術を使用することで、高速な推論が可能となり、提案手法は大規模およびマルチコホートデータセットに適しており、セッション毎に様々なモダリティがある。
パイプラインは現在、構造MRI、静止状態fMRI、アミロイドPET画像で動作する。
事例制御研究において, 生体マーカーの予測能力を示し, 異なる画像モダリティ間の交叉モーダル関係について検討した。
コードはhttps: //github.com/acasamitjana/JUMPで確認できる。
関連論文リスト
- Deep Multimodal Collaborative Learning for Polyp Re-Identification [4.4028428688691905]
大腸内視鏡によるポリープ再同定は、大きなギャラリーの同じポリープと異なるカメラで撮影された異なるビューの画像とを一致させることを目的としている。
ImageNetデータセットでトレーニングされたCNNモデルを直接適用する従来のオブジェクトReIDの手法は、不満足な検索性能をもたらす。
本稿では,ポリプ再同定のためのDMCLという新しい多モーダル協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-12T04:05:19Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - Disentangled Multimodal Brain MR Image Translation via Transformer-based
Modality Infuser [12.402947207350394]
マルチモーダル脳MR画像の合成を目的としたトランスフォーマーを用いたモダリティインジェクタを提案する。
本手法では,エンコーダからモダリティに依存しない特徴を抽出し,その特徴をモダリティ固有の特徴に変換する。
われわれはBraTS 2018データセットで4つのMRモードを変換する実験を行った。
論文 参考訳(メタデータ) (2024-02-01T06:34:35Z) - Unified Brain MR-Ultrasound Synthesis using Multi-Modal Hierarchical
Representations [34.821129614819604]
MHVAE(Deep Hierarchical Variational Auto-Encoder, VAE)は, 様々なモダリティから欠落した画像を合成する。
階層的な潜在構造を持つマルチモーダルVAEを拡張して,複数のモーダル画像を共通の潜在表現で融合する確率的定式化を導入する。
画像の欠落に対して,マルチモーダルVAE,条件付きGAN,現在の最先端統一手法(ResViT)より優れた性能を示した。
論文 参考訳(メタデータ) (2023-09-15T20:21:03Z) - A Learnable Variational Model for Joint Multimodal MRI Reconstruction
and Synthesis [4.056490719080639]
マルチモーダルMRIの関節再構成と合成のための新しいディープラーニングモデルを提案する。
本モデルの出力は、ソースのモダリティの再構成画像と、ターゲットのモダリティで合成された高品質な画像を含む。
論文 参考訳(メタデータ) (2022-04-08T01:35:19Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - MuCAN: Multi-Correspondence Aggregation Network for Video
Super-Resolution [63.02785017714131]
ビデオ超解像(VSR)は、複数の低解像度フレームを使用して、各フレームに対して高解像度の予測を生成することを目的としている。
フレーム間およびフレーム内は、時間的および空間的情報を利用するための鍵となるソースである。
VSRのための効果的なマルチ対応アグリゲーションネットワーク(MuCAN)を構築した。
論文 参考訳(メタデータ) (2020-07-23T05:41:27Z) - Hi-Net: Hybrid-fusion Network for Multi-modal MR Image Synthesis [143.55901940771568]
マルチモーダルMR画像合成のためのHybrid-fusion Network(Hi-Net)を提案する。
当社のHi-Netでは,各モーダリティの表現を学習するために,モーダリティ特化ネットワークを用いている。
マルチモーダル合成ネットワークは、潜在表現と各モーダルの階層的特徴を密結合するように設計されている。
論文 参考訳(メタデータ) (2020-02-11T08:26:42Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。