論文の概要: Adaptive Clinical-Aware Latent Diffusion for Multimodal Brain Image Generation and Missing Modality Imputation
- arxiv url: http://arxiv.org/abs/2603.09931v1
- Date: Tue, 10 Mar 2026 17:26:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.499793
- Title: Adaptive Clinical-Aware Latent Diffusion for Multimodal Brain Image Generation and Missing Modality Imputation
- Title(参考訳): マルチモーダル脳画像生成における適応型臨床応用潜時拡散法とモダリティの欠如
- Authors: Rong Zhou, Houliang Zhou, Yao Su, Brian Y. Chen, Yu Zhang, Lifang He, Alzheimer's Disease Neuroimaging Initiative,
- Abstract要約: ACADiffは、行方不明の脳画像モダリティを合成するフレームワークである。
不完全なマルチモーダル観測と目標モダリティの間のマッピングを、段階的に潜在表現を認知することによって学習する。
生成品質が向上し、80%の不足シナリオでも堅牢な診断性能を維持する。
- 参考スコア(独自算出の注目度): 12.941925130242039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodal neuroimaging provides complementary insights for Alzheimer's disease diagnosis, yet clinical datasets frequently suffer from missing modalities. We propose ACADiff, a framework that synthesizes missing brain imaging modalities through adaptive clinical-aware diffusion. ACADiff learns mappings between incomplete multimodal observations and target modalities by progressively denoising latent representations while attending to available imaging data and clinical metadata. The framework employs adaptive fusion that dynamically reconfigures based on input availability, coupled with semantic clinical guidance via GPT-4o-encoded prompts. Three specialized generators enable bidirectional synthesis among sMRI, FDG-PET, and AV45-PET. Evaluated on ADNI subjects, ACADiff achieves superior generation quality and maintains robust diagnostic performance even under extreme 80\% missing scenarios, outperforming all existing baselines. To promote reproducibility, code is available at https://github.com/rongzhou7/ACADiff
- Abstract(参考訳): マルチモーダル・ニューロイメージングはアルツハイマー病の診断に補完的な洞察を与えるが、臨床データセットは欠落したモダリティにしばしば悩まされる。
ACADiffは、適応的な臨床認識拡散を通じて、欠落した脳画像のモダリティを合成するフレームワークである。
ACADiffは、利用可能な画像データや臨床メタデータを参照しながら、潜伏表現を段階的に認知することで、不完全なマルチモーダル観測と目標モダリティの間のマッピングを学習する。
このフレームワークは、入力可用性に基づいて動的に再構成される適応融合と、GPT-4oエンコードされたプロンプトによる意味的臨床ガイダンスを利用する。
3つの特殊なジェネレータは、sMRI、FDG-PET、AV45-PETの双方向合成を可能にする。
ADNIの課題に基づいて評価すると、ACADiffはより優れた生成品質を達成し、極端な80%の欠落シナリオでも堅牢な診断性能を維持し、既存のすべてのベースラインを上回ります。
再現性を促進するために、コードはhttps://github.com/rongzhou7/ACADiffで入手できる。
関連論文リスト
- Exploiting Completeness Perception with Diffusion Transformer for Unified 3D MRI Synthesis [9.857855424798732]
本稿では,3次元MRIの統一合成のための完全性知覚を備えた潜時拡散モデルCoPeDiTを提案する。
CoPeDiTは最先端の手法よりも優れ、優れた堅牢性、一般化可能性、柔軟性を実現している。
論文 参考訳(メタデータ) (2026-02-20T18:05:39Z) - Quasi-multimodal-based pathophysiological feature learning for retinal disease diagnosis [4.437523386839875]
多モードデータ合成と融合を統合した統合フレームワークが網膜疾患の分類とグレーディングのために提案されている。
提案する学習システムは,画像空間と特徴空間の両方の可視化を通して,徹底的に解釈される。
この研究は網膜疾患スクリーニングの精度と効率を高めるだけでなく、様々な医用画像モダリティにまたがるデータ拡張のためのスケーラブルなフレームワークも提供する。
論文 参考訳(メタデータ) (2026-02-03T15:13:57Z) - NEURO-GUARD: Neuro-Symbolic Generalization and Unbiased Adaptive Routing for Diagnostics -- Explainable Medical AI [0.6345042809319409]
NEURO-GUARDは、視覚変換器(ViT)と言語駆動推論を統合して性能を向上させる知識誘導型視覚フレームワークである。
NEURO-GUARDは、大規模言語モデル(LLM)が医療画像の特徴抽出コードを反復的に生成し、評価し、洗練する自己検証のために、検索拡張生成(RAG)機構を採用している。
4つのベンチマークデータセットで糖尿病網膜症分類の実験により、NEURO-GUARDはViTのみのベースラインで精度を6.2%改善し、ドメインの一般化で5%向上した。
論文 参考訳(メタデータ) (2025-12-20T02:32:15Z) - A Semantically Enhanced Generative Foundation Model Improves Pathological Image Synthesis [82.01597026329158]
本稿では,組織合成のための相関調整フレームワーク(CRAFTS)について紹介する。
CRAFTSは、生物学的精度を確保するためにセマンティックドリフトを抑制する新しいアライメント機構を組み込んでいる。
本モデルは,30種類の癌にまたがる多彩な病理像を生成する。
論文 参考訳(メタデータ) (2025-12-15T10:22:43Z) - Med-K2N: Flexible K-to-N Modality Translation for Medical Image Synthesis [13.589690091116802]
クロスモーダルな医用画像合成研究は、臨床診断を支援するために利用可能な画像から欠落した画像のモダリティを再構築することに焦点を当てている。
様々な目的タスクに対する異なるモダリティの不均一な寄与をモデル化するにはどうすればよいか?
マルチアウトプット生成におけるモーダリティアイデンティティの整合性を維持するには?
論文 参考訳(メタデータ) (2025-10-03T08:47:17Z) - A Fully Open and Generalizable Foundation Model for Ultrasound Clinical Applications [77.3888788549565]
一般臨床用超音波基礎モデルであるEchoCareについて紹介する。
我々は、キュレートされた、一般公開された大規模なデータセットであるEchoCareData上で、自己教師付き学習を通じてEchoCareを開発した。
最小限のトレーニングで、EchoCareは10の代表的なベンチマークで最先端の比較モデルを上回っている。
論文 参考訳(メタデータ) (2025-09-15T10:05:31Z) - impuTMAE: Multi-modal Transformer with Masked Pre-training for Missing Modalities Imputation in Cancer Survival Prediction [75.43342771863837]
我々は,効率的なマルチモーダル事前学習戦略を備えた新しいトランスフォーマーに基づくエンドツーエンドアプローチである impuTMAE を紹介する。
マスクされたパッチを再構築することで、モダリティの欠如を同時に示唆しながら、モダリティ間の相互作用とモダリティ内相互作用を学習する。
本モデルは,TGA-GBM/LGGとBraTSデータセットを用いたグリオーマ生存予測のために,異種不完全データに基づいて事前訓練を行った。
論文 参考訳(メタデータ) (2025-08-08T10:01:16Z) - NeuroMoE: A Transformer-Based Mixture-of-Experts Framework for Multi-Modal Neurological Disorder Classification [3.5313393560458826]
Deep Learningは最近、診断を助けるために医療データから意味のあるパターンを抽出する強力なツールとして登場した。
神経疾患を分類するための新しいトランスフォーマーベースのMixture-of-Experts(MoE)フレームワークを提案する。
我々のフレームワークは82.47%の検証精度を達成し、ベースライン法を10%以上上回っている。
論文 参考訳(メタデータ) (2025-06-17T20:40:06Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。