論文の概要: InVA: Integrative Variational Autoencoder for Harmonization of
Multi-modal Neuroimaging Data
- arxiv url: http://arxiv.org/abs/2402.02734v1
- Date: Mon, 5 Feb 2024 05:26:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 17:49:08.581637
- Title: InVA: Integrative Variational Autoencoder for Harmonization of
Multi-modal Neuroimaging Data
- Title(参考訳): inva:マルチモーダルニューロイメージングデータの調和のための統合的変分オートエンコーダ
- Authors: Bowen Lei, Rajarshi Guhaniyogi, Krishnendu Chandra, Aaron Scheffler,
Bani Mallick (for the Alzheimer's Disease Neuroimaging Initiative)
- Abstract要約: 本稿では、異なるソースから得られた複数の画像から情報を借りて、画像の予測推論を行う、積分変分自動符号化(textttInVA)手法を提案する。
数値的な結果は、通常入力画像間での情報を借りることができないVAEに対して、textttInVAのかなりの利点を示す。
- 参考スコア(独自算出の注目度): 3.792342522967013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a significant interest in exploring non-linear associations among
multiple images derived from diverse imaging modalities. While there is a
growing literature on image-on-image regression to delineate predictive
inference of an image based on multiple images, existing approaches have
limitations in efficiently borrowing information between multiple imaging
modalities in the prediction of an image. Building on the literature of
Variational Auto Encoders (VAEs), this article proposes a novel approach,
referred to as Integrative Variational Autoencoder (\texttt{InVA}) method,
which borrows information from multiple images obtained from different sources
to draw predictive inference of an image. The proposed approach captures
complex non-linear association between the outcome image and input images,
while allowing rapid computation. Numerical results demonstrate substantial
advantages of \texttt{InVA} over VAEs, which typically do not allow borrowing
information between input images. The proposed framework offers highly accurate
predictive inferences for costly positron emission topography (PET) from
multiple measures of cortical structure in human brain scans readily available
from magnetic resonance imaging (MRI).
- Abstract(参考訳): 多様な画像モダリティから派生した複数の画像間での非線形関係の探索には大きな関心がある。
複数の画像に基づいて画像の予測推論を導出するイメージ・オン・イメージ回帰に関する文献が増えているが、既存のアプローチでは、画像の予測において複数の画像モダリティ間で情報を効率的に借用することに限界がある。
本稿では、可変オートエンコーダ(VAE)の文献に基づいて、異なるソースから得られた複数の画像から情報を借りて画像の予測推論を行う、積分変分オートエンコーダ(\texttt{InVA})と呼ばれる新しい手法を提案する。
提案手法は, 結果画像と入力画像との複雑な非線形関係を捉えつつ, 高速計算を可能にする。
数値的な結果は、通常、入力画像間での情報を借りることができないVAEに対して、texttt{InVA} のかなりの利点を示す。
提案フレームワークは、MRI(MRI)から容易に利用できるヒト脳スキャンにおける皮質構造の複数の測定から、コストの高いポジトロン放射トポグラフィー(PET)を高精度に予測する。
関連論文リスト
- Bridging the Gap between Synthetic and Authentic Images for Multimodal
Machine Translation [51.37092275604371]
マルチモーダル機械翻訳(MMT)は、ソース文と関連する画像を同時に翻訳の入力とする。
近年の研究では、画像入力のための強力なテキスト・画像生成モデルが提案されている。
しかし、これらのモデルによって生成された合成画像は、実際の画像と比較して異なる分布を辿ることが多い。
論文 参考訳(メタデータ) (2023-10-20T09:06:30Z) - Deep Unfolding Convolutional Dictionary Model for Multi-Contrast MRI
Super-resolution and Reconstruction [23.779641808300596]
最適化アルゴリズムの指導の下で,マルチコントラスト畳み込み辞書(MC-CDic)モデルを提案する。
近似勾配アルゴリズムを用いてモデルを最適化し、反復的なステップを深部CDicモデルに展開する。
実験により,既存のSOTA法に対して提案したMC-CDicモデルの方が優れた性能を示した。
論文 参考訳(メタデータ) (2023-09-03T13:18:59Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - Paired Image-to-Image Translation Quality Assessment Using Multi-Method
Fusion [0.0]
本稿では,画像品質の信号のペア化と変換を併用して,後者の類似性と仮説的基底真理を推定する手法を提案する。
我々は,深部画像構造とテクスチャ類似性(DISTS)を予測するために,勾配型回帰器のアンサンブルを用いたマルチメソッドフュージョン(MMF)モデルを訓練した。
分析の結果,測定時間と予測精度の間にトレードオフが生じ,特徴制約を課すことが判明した。
論文 参考訳(メタデータ) (2022-05-09T11:05:15Z) - Variational Inference for Quantifying Inter-observer Variability in
Segmentation of Anatomical Structures [12.138198227748353]
ほとんどのセグメンテーション法は、単純にイメージからその単一セグメンテーションマップへのマッピングをモデル化し、アノテータの不一致を考慮に入れない。
特定のMR画像から得られる可視分割写像の分布をモデル化する新しい変分推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-18T16:33:33Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Flow-based Deformation Guidance for Unpaired Multi-Contrast MRI
Image-to-Image Translation [7.8333615755210175]
本稿では,非可逆的アーキテクチャに基づく画像と画像の非対角変換に対する新しいアプローチを提案する。
我々は、連続スライス間の時間的情報を利用して、不適切な医療画像において、あるドメインを別のドメインに変換する最適化により多くの制約を与える。
論文 参考訳(メタデータ) (2020-12-03T09:10:22Z) - CoMIR: Contrastive Multimodal Image Representation for Registration [4.543268895439618]
我々は,CoMIR(Contrastive Multimodal Image Representations)と呼ばれる,共有された高密度画像表現を学習するためのコントラスト符号化を提案する。
CoMIRは、十分に類似した画像構造が欠如しているため、既存の登録方法がしばしば失敗するマルチモーダル画像の登録を可能にする。
論文 参考訳(メタデータ) (2020-06-11T10:51:33Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。