論文の概要: REN: Anatomically-Informed Mixture-of-Experts for Interstitial Lung Disease Diagnosis
- arxiv url: http://arxiv.org/abs/2510.04923v1
- Date: Mon, 06 Oct 2025 15:35:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.943489
- Title: REN: Anatomically-Informed Mixture-of-Experts for Interstitial Lung Disease Diagnosis
- Title(参考訳): REN:間質性肺疾患診断のための解剖学的インフォームド・ミックス・オブ・エクスプロイト
- Authors: Alec K. Peltekian, Halil Ertugrul Aktas, Gorkem Durak, Kevin Grudzinski, Bradford C. Bemiss, Carrie Richardson, Jane E. Dematte, G. R. Scott Budinger, Anthony J. Esposito, Alexander Misharin, Alok Choudhary, Ankit Agrawal, Ulas Bagci,
- Abstract要約: 医用画像分類に特化した最初の解剖学的インフォームドMOEフレームワークであるRegional Expert Networks (REN)を紹介した。
RENは解剖学の先行技術を利用して7人の専門専門家を訓練し、それぞれ異なる肺葉と両側の肺の組み合わせに特化している。
厳密な患者レベルのクロスバリデーションを通じて、RENは強力な一般化性と臨床解釈可能性を示す。
- 参考スコア(独自算出の注目度): 32.83724094606554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mixture-of-Experts (MoE) architectures have significantly contributed to scalable machine learning by enabling specialized subnetworks to tackle complex tasks efficiently. However, traditional MoE systems lack domain-specific constraints essential for medical imaging, where anatomical structure and regional disease heterogeneity strongly influence pathological patterns. Here, we introduce Regional Expert Networks (REN), the first anatomically-informed MoE framework tailored specifically for medical image classification. REN leverages anatomical priors to train seven specialized experts, each dedicated to distinct lung lobes and bilateral lung combinations, enabling precise modeling of region-specific pathological variations. Multi-modal gating mechanisms dynamically integrate radiomics biomarkers and deep learning (DL) features (CNN, ViT, Mamba) to weight expert contributions optimally. Applied to interstitial lung disease (ILD) classification, REN achieves consistently superior performance: the radiomics-guided ensemble reached an average AUC of 0.8646 +/- 0.0467, a +12.5 percent improvement over the SwinUNETR baseline (AUC 0.7685, p = 0.031). Region-specific experts further revealed that lower-lobe models achieved AUCs of 0.88-0.90, surpassing DL counterparts (CNN: 0.76-0.79) and aligning with known disease progression patterns. Through rigorous patient-level cross-validation, REN demonstrates strong generalizability and clinical interpretability, presenting a scalable, anatomically-guided approach readily extensible to other structured medical imaging applications.
- Abstract(参考訳): Mixture-of-Experts (MoE)アーキテクチャは、複雑なタスクに効率的に対処する特別なサブネットワークを実現することによって、スケーラブルな機械学習に大きく貢献している。
しかし、従来のMOEシステムは、解剖学的構造と地域疾患の不均一性が病理学的パターンに強く影響を及ぼす、医学的イメージングに必要なドメイン固有の制約を欠いている。
本稿では,医用画像分類に特化した最初の解剖学的インフォームドMOEフレームワークであるRegional Expert Networks (REN)を紹介する。
RENは解剖学の先行技術を利用して7人の専門専門家を訓練し、それぞれ異なる肺葉と両側の肺の組み合わせに特化しており、地域固有の病態の正確なモデリングを可能にしている。
マルチモーダルゲーティング機構は, 放射線バイオマーカーと深層学習機能(CNN, ViT, Mamba)を動的に統合し, 専門的貢献の度合いを最適化する。
間質性肺疾患(ILD:interstitial lung disease)の分類において、RENは一貫して優れた性能を発揮し、放射線誘導アンサンブルは平均AUC 0.8646 +/- 0.0467、SwinUNETRベースライン(AUC 0.7685, p = 0.031)よりも+12.5%向上した。
地域の専門家はさらに、ローローブモデルがAUCの0.88-0.90を達成し、DLモデル(CNN: 0.76-0.79)を上回り、既知の疾患進行パターンと整合していることを明らかにした。
厳密な患者レベルのクロスバリデーションを通じて、RENは強力な一般化性と臨床解釈可能性を示し、スケーラブルで解剖学的に誘導されたアプローチを他の構造化された医療画像アプリケーションに容易に拡張できることを示した。
関連論文リスト
- PathMoE: Interpretable Multimodal Interaction Experts for Pediatric Brain Tumor Classification [30.58342408480846]
PathMoEは、H&Eスライド、病理報告、核レベルセルグラフを統合する、解釈可能なマルチモーダルフレームワークである。
内科的脳腫瘍データセットと外部TGAデータセットの2つのデータセット固有の分類タスクについて,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2026-03-02T07:17:44Z) - Specializing Foundation Models via Mixture of Low-Rank Experts for Comprehensive Head CT Analysis [6.04562866374803]
複数の特殊な低ランクアダプタと教師なしソフトルーティングでLoRAを拡張したMixture of Low-Rank Experts (MoLRE) フレームワークを提案する。
2次元および3次元のアーキテクチャ、一般ドメイン、医療ドメイン、頭部CT固有の事前訓練、および7Mから431Mのモデルサイズにまたがる6つの最先端医療画像基盤モデルのMoLREのベンチマークを提示する。
論文 参考訳(メタデータ) (2026-02-28T14:32:38Z) - OrthoDiffusion: A Generalizable Multi-Task Diffusion Foundation Model for Musculoskeletal MRI Interpretation [36.4629764779715]
筋骨格障害は、世界的な健康上の重荷であり、世界中の障害の主要な原因である。
マルチタスク筋骨格MRIの解釈のために設計された統合拡散基盤モデルOrthoDiffusionを開発した。
このフレームワークは、3つの方向特異的な3D拡散モデルを利用しており、15,948個のラベルのない膝MRIスキャンで自己指導的に事前訓練されている。
論文 参考訳(メタデータ) (2026-02-24T10:29:10Z) - MMedExpert-R1: Strengthening Multimodal Medical Reasoning via Domain-Specific Adaptation and Clinical Guideline Reinforcement [63.82954136824963]
医療ビジョンランゲージモデルでは、現実世界のシナリオで必要とされる複雑な臨床推論を伴う知覚タスクが優れている。
本稿ではドメイン固有の適応とガイドライン強化を通じてこれらの課題に対処する新しい推論MedVLMを提案する。
論文 参考訳(メタデータ) (2026-01-16T02:32:07Z) - MedXAI: A Retrieval-Augmented and Self-Verifying Framework for Knowledge-Guided Medical Image Analysis [0.5581472054346949]
MedXAIは、深層視覚モデルと臨床から派生した専門知識を統合して、一般化を改善し、希少な偏見を減らし、人間の理解に足る説明を提供する。
我々は,MedXAIを多種多様性で評価し, (i) 静置型fMRIによる静注オンセットゾーンの局在と, (ii) 糖尿病網膜症をグレードする2つの課題について検討した。
論文 参考訳(メタデータ) (2025-12-10T21:40:04Z) - Detection and Localization of Subdural Hematoma Using Deep Learning on Computed Tomography [3.5333115085185614]
硬膜下血腫 (SDH) は神経外科的緊急時であり, 高齢化が進んでいる。
マルチモーダルな臨床および画像情報を統合する透明でハイパフォーマンスなシステムが必要である。
我々は,構造化された臨床変数とCTボリュームに基づいて訓練された3次元畳み込みニューラルネットワークと,SDHの検出とローカライゼーションのための2次元セグメンテーションモデルを統合するマルチモーダルディープラーニングフレームワークを開発した。
論文 参考訳(メタデータ) (2025-12-10T07:37:42Z) - FoundDiff: Foundational Diffusion Model for Generalizable Low-Dose CT Denoising [55.04342933312839]
本稿では,CT(低線量CT)デノナイズのための基礎拡散モデルFoundDiffを提案する。
FoundDiffは、(i)線量解剖学的知覚と(ii)適応的認知という2段階の戦略を採用している。
まず, 線量および解剖学的知覚を実現するために, 線量および解剖学的対応型コントラスト言語画像事前訓練モデル(DA-CLIP)を開発した。
第2に,適応的および一般化可能な復調を行うために,線量および解剖学的拡散モデル(DA-Diff)を設計する。
論文 参考訳(メタデータ) (2025-08-24T11:03:56Z) - A Disease-Centric Vision-Language Foundation Model for Precision Oncology in Kidney Cancer [54.58205672910646]
RenalCLIPは、腎腫瘤の特徴、診断、予後のための視覚言語基盤モデルである。
腎がんの完全な臨床ワークフローにまたがる10のコアタスクにおいて、優れたパフォーマンスと優れた一般化性を実現した。
論文 参考訳(メタデータ) (2025-08-22T17:48:19Z) - From Promise to Practical Reality: Transforming Diffusion MRI Analysis with Fast Deep Learning Enhancement [35.368152968098194]
FastFOD-Netは、FODを優れたパフォーマンスで強化し、臨床使用のためのトレーニング/推論効率を提供するエンドツーエンドのディープラーニングフレームワークである。
この研究は、拡散MRIの強化のための深層学習に基づく手法を、より広く採用し、臨床信頼を構築することを促進する。
論文 参考訳(メタデータ) (2025-08-13T17:56:29Z) - Fusion-Based Brain Tumor Classification Using Deep Learning and Explainable AI, and Rule-Based Reasoning [0.0]
本研究では,MobileNetV2とDenseNet121畳み込みニューラルネットワーク(CNN)を組み合わせたアンサンブルに基づくディープラーニングフレームワークを提案する。
モデルは、階層化された5倍のクロスバリデーションプロトコルを使用して、Figshareデータセット上でトレーニングされ、評価された。
このアンサンブルは個々のCNNよりも優れた性能を示し、精度は91.7%、精度は91.9%、リコールは91.7%、F1スコアは91.6%だった。
論文 参考訳(メタデータ) (2025-08-09T08:46:36Z) - RadFabric: Agentic AI System with Reasoning Capability for Radiology [61.25593938175618]
RadFabricは、総合的なCXR解釈のための視覚的およびテキスト分析を統合するマルチエージェント、マルチモーダル推論フレームワークである。
システムは、病理診断に特殊なCXRエージェント、正確な解剖学的構造に視覚所見をマッピングする解剖学的解釈エージェント、および視覚的、解剖学的、臨床データを透明かつ証拠に基づく診断に合成する大規模なマルチモーダル推論モデルを利用した推論エージェントを使用する。
論文 参考訳(メタデータ) (2025-06-17T03:10:33Z) - MAST-Pro: Dynamic Mixture-of-Experts for Adaptive Segmentation of Pan-Tumors with Knowledge-Driven Prompts [54.915060471994686]
MAST-Proは,ダイナミックなMixture-of-Experts(D-MoE)とパン腫瘍セグメンテーションのための知識駆動プロンプトを統合した新しいフレームワークである。
具体的には、テキストと解剖学的プロンプトは、腫瘍表現学習を導くドメイン固有の事前情報を提供し、D-MoEは、ジェネリックと腫瘍固有の特徴学習のバランスをとる専門家を動的に選択する。
マルチ解剖学的腫瘍データセットの実験では、MAST-Proは最先端のアプローチよりも優れており、トレーニング可能なパラメータを91.04%削減し、平均改善の5.20%を達成している。
論文 参考訳(メタデータ) (2025-03-18T15:39:44Z) - TopoTxR: A topology-guided deep convolutional network for breast parenchyma learning on DCE-MRIs [49.69047720285225]
そこで本研究では,乳房側葉構造をよりよく近似するために,マルチスケールのトポロジ構造を明示的に抽出する新しいトポロジカルアプローチを提案する。
VICTREファントム乳房データセットを用いてemphTopoTxRを実験的に検証した。
本研究の質的および定量的分析は,乳房組織における画像診断におけるトポロジカルな挙動を示唆するものである。
論文 参考訳(メタデータ) (2024-11-05T19:35:10Z) - Classification of Heart Sounds Using Multi-Branch Deep Convolutional Network and LSTM-CNN [7.136933021609078]
本研究は, 心臓疾患の自動診断のための, 迅速かつ正確かつ費用対効果の高い手法を提供する新しいディープラーニングアーキテクチャを開発し, 評価する。
まず,多様な畳み込みフィルタサイズを利用して人間の聴覚処理をエミュレートするマルチブランチディープ畳み込みニューラルネットワーク(MBDCN)と,特徴抽出のためのパワースペクトル入力の2つの革新的な手法を提案する。
第二に、LSTMブロックをMBDCNに統合し、時間領域の特徴抽出を改善するLong Short-Term Memory-Convolutional Neural (LSCN)モデルである。
論文 参考訳(メタデータ) (2024-07-15T13:02:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。