論文の概要: MetaVoxel: Joint Diffusion Modeling of Imaging and Clinical Metadata
- arxiv url: http://arxiv.org/abs/2512.10041v2
- Date: Fri, 12 Dec 2025 02:15:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 13:50:29.177171
- Title: MetaVoxel: Joint Diffusion Modeling of Imaging and Clinical Metadata
- Title(参考訳): MetaVoxel:画像と臨床メタデータの融合拡散モデリング
- Authors: Yihao Liu, Chenyu Gao, Lianrui Zuo, Michael E. Kim, Brian D. Boyd, Lisa L. Barnes, Walter A. Kukull, Lori L. Beason-Held, Susan M. Resnick, Timothy J. Hohman, Warren D. Taylor, Bennett A. Landman,
- Abstract要約: 生成的共同拡散モデリングフレームワークであるMetaVoxelを紹介する。
一つのMetaVoxelモデルで画像生成,年齢推定,性別予測を行うことができることを示す。
- 参考スコア(独自算出の注目度): 5.963599483233974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern deep learning methods have achieved impressive results across tasks from disease classification, estimating continuous biomarkers, to generating realistic medical images. Most of these approaches are trained to model conditional distributions defined by a specific predictive direction with a specific set of input variables. We introduce MetaVoxel, a generative joint diffusion modeling framework that models the joint distribution over imaging data and clinical metadata by learning a single diffusion process spanning all variables. By capturing the joint distribution, MetaVoxel unifies tasks that traditionally require separate conditional models and supports flexible zero-shot inference using arbitrary subsets of inputs without task-specific retraining. Using more than 10,000 T1-weighted MRI scans paired with clinical metadata from nine datasets, we show that a single MetaVoxel model can perform image generation, age estimation, and sex prediction, achieving performance comparable to established task-specific baselines. Additional experiments highlight its capabilities for flexible inference. Together, these findings demonstrate that joint multimodal diffusion offers a promising direction for unifying medical AI models and enabling broader clinical applicability.
- Abstract(参考訳): 現代のディープラーニング手法は、病気の分類、連続的なバイオマーカーの推定、現実的な医療画像の生成など、様々なタスクで顕著な成果を上げている。
これらのアプローチのほとんどは、特定の入力変数のセットで特定の予測方向によって定義される条件分布をモデル化するように訓練されている。
画像データと臨床メタデータ上での関節分布をモデル化し,すべての変数にまたがる単一拡散過程を学習する,生成的共同拡散モデリングフレームワークであるMetaVoxelを紹介する。
ジョイントディストリビューションをキャプチャすることで、MetaVoxelは、伝統的に異なる条件モデルを必要とするタスクを統一し、タスク固有のリトレーニングなしで任意の入力のサブセットを使用して柔軟なゼロショット推論をサポートする。
9つのデータセットから得られた臨床メタデータと組み合わせた1万以上のT1強調MRIスキャンを用いて、1つのMetaVoxelモデルが画像生成、年齢推定、性別予測を行い、既存のタスク固有のベースラインに匹敵するパフォーマンスを達成することを示す。
さらなる実験では、フレキシブル推論の能力を強調している。
これらの結果から,統合型マルチモーダル拡散は医療用AIモデルを統一し,より広い臨床応用性を実現する上で有望な方向を提供することが示された。
関連論文リスト
- ProbMed: A Probabilistic Framework for Medical Multimodal Binding [21.27709522688514]
確率的モダリティ向上診断(ProbMED)について紹介する。
ProbMEDは、X線、心電図、心エコー計の4つの異なるモードを、統一された確率的埋め込み空間に整列させる。
本モデルでは, クロスモーダル検索, ゼロショット分類, 少数ショット分類において, 現在の医用視覚言語事前訓練モデルより優れている。
論文 参考訳(メタデータ) (2025-09-30T03:16:01Z) - UniSegDiff: Boosting Unified Lesion Segmentation via a Staged Diffusion Model [53.34835793648352]
病変分割のための新しい拡散モデルフレームワークUniSegDiffを提案する。
UniSegDiffは、複数のモダリティと臓器にまたがる統一された方法で病変のセグメンテーションに対処する。
総合的な実験結果から、UniSegDiffは従来のSOTA(State-of-the-art)アプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-07-24T12:33:10Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - UNICORN: A Deep Learning Model for Integrating Multi-Stain Data in Histopathology [2.9389205138207277]
UNICORNは動脈硬化の重症度予測のための多段階組織学を処理できるマルチモーダルトランスフォーマーである。
このアーキテクチャは、2段階のエンドツーエンドのトレーニング可能なモデルと、トランスフォーマーの自己保持ブロックを利用する特殊なモジュールから構成される。
UNICORNは0.67の分類精度を達成し、他の最先端モデルを上回った。
論文 参考訳(メタデータ) (2024-09-26T12:13:52Z) - Introducing Shape Prior Module in Diffusion Model for Medical Image
Segmentation [7.7545714516743045]
拡散確率モデル(DDPM)を利用したVerseDiff-UNetというエンドツーエンドフレームワークを提案する。
我々のアプローチは拡散モデルを標準のU字型アーキテクチャに統合する。
本手法はX線画像から得られた脊椎画像の1つのデータセットを用いて評価する。
論文 参考訳(メタデータ) (2023-09-12T03:05:00Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Diff-UNet: A Diffusion Embedded Network for Volumetric Segmentation [41.608617301275935]
医療用ボリュームセグメンテーションのための新しいエンドツーエンドフレームワークDiff-UNetを提案する。
提案手法では,拡散モデルを標準U字型アーキテクチャに統合し,入力ボリュームから意味情報を効率的に抽出する。
われわれは,MRI,肝腫瘍,多臓器CTの3種類の脳腫瘍について検討した。
論文 参考訳(メタデータ) (2023-03-18T04:06:18Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。