論文の概要: Mixture of Multicenter Experts in Multimodal Generative AI for Advanced Radiotherapy Target Delineation
- arxiv url: http://arxiv.org/abs/2410.00046v2
- Date: Sat, 26 Oct 2024 15:22:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 15:19:28.282375
- Title: Mixture of Multicenter Experts in Multimodal Generative AI for Advanced Radiotherapy Target Delineation
- Title(参考訳): 高度放射線治療目標線量推定のためのマルチモーダル生成AIにおける多施設専門家の混在
- Authors: Yujin Oh, Sangjoon Park, Xiang Li, Wang Yi, Jonathan Paly, Jason Efstathiou, Annie Chan, Jun Won Kim, Hwa Kyung Byun, Ik Jae Lee, Jaeho Cho, Chan Woo Wee, Peng Shu, Peilong Wang, Nathan Yu, Jason Holmes, Jong Chul Ye, Quanzheng Li, Wei Liu, Woong Sub Koom, Jin Sung Kim, Kyungsang Kim,
- Abstract要約: 医用人工知能モデルをトレーニングするために,Mixture of Multicenter Experts (MoME) アプローチを導入する。
MoMEは様々な臨床戦略から専門知識を戦略的に統合し、AIモデルの一般化能力を高める。
このフレームワークは、リソース制約のある医療施設にAIベースのターゲットボリュームデラインモデルの展開を可能にする。
- 参考スコア(独自算出の注目度): 43.21982155078846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clinical experts employ diverse philosophies and strategies in patient care, influenced by regional patient populations. However, existing medical artificial intelligence (AI) models are often trained on data distributions that disproportionately reflect highly prevalent patterns, reinforcing biases and overlooking the diverse expertise of clinicians. To overcome this limitation, we introduce the Mixture of Multicenter Experts (MoME) approach. This method strategically integrates specialized expertise from diverse clinical strategies, enhancing the AI model's ability to generalize and adapt across multiple medical centers. The MoME-based multimodal target volume delineation model, trained with few-shot samples including images and clinical notes from each medical center, outperformed baseline methods in prostate cancer radiotherapy target delineation. The advantages of MoME were most pronounced when data characteristics varied across centers or when data availability was limited, demonstrating its potential for broader clinical applications. Therefore, the MoME framework enables the deployment of AI-based target volume delineation models in resource-constrained medical facilities by adapting to specific preferences of each medical center only using a few sample data, without the need for data sharing between institutions. Expanding the number of multicenter experts within the MoME framework will significantly enhance the generalizability, while also improving the usability and adaptability of clinical AI applications in the field of precision radiation oncology.
- Abstract(参考訳): 臨床専門家は、地域患者人口の影響を受けて、多様な哲学と患者ケア戦略を取り入れている。
しかし、既存の医療人工知能(AI)モデルは、非常に一般的なパターンを不均等に反映し、バイアスを補強し、臨床医の多様な専門知識を見越すデータ分布に基づいて訓練されることが多い。
この制限を克服するために、我々はMixture of Multicenter Experts (MoME)アプローチを導入する。
この方法は、様々な臨床戦略から専門的な専門知識を戦略的に統合し、複数の医療センターをまたいだAIモデルの一般化と適応能力を強化する。
前立腺癌放射線治療における基準線法よりも優れた成績を示したMOMEベースマルチモーダルボリュームデラインモデルについて,各医療センターからの画像や臨床ノートを含む数点のサンプルを用いて訓練を行った。
MoMEの利点は、データ特性がセンターによって異なる場合や、データ可用性が制限された場合が最も顕著であり、より広範な臨床応用の可能性を示した。
したがって、MOMEフレームワークは、機関間でのデータ共有を必要とせず、少数のサンプルデータのみを使用して、各医療センターの特定の嗜好に適応することにより、AIベースのターゲットボリュームデラインモデルのリソース制約のある医療施設への展開を可能にする。
MoMEフレームワーク内のマルチセンターの専門家の数を増やすことで、一般化可能性を大幅に向上するとともに、精度放射線腫瘍学の分野における臨床AI応用のユーザビリティと適応性を向上させることができる。
関連論文リスト
- Navigating the landscape of multimodal AI in medicine: a scoping review on technical challenges and clinical applications [2.3754862363513523]
本稿では,医学領域全体にわたるディープラーニングベースのマルチモーダルAIアプリケーションの展望を概観する。
マルチモーダルAIモデルは、AUCの6.2ポイントの平均的な改善により、一貫して単調なAIモデルを上回っている。
我々は,マルチモーダルAI開発を推進している重要な要因を特定し,フィールドの成熟を促進するための推奨事項を提案する。
論文 参考訳(メタデータ) (2024-11-06T09:18:05Z) - FEDKIM: Adaptive Federated Knowledge Injection into Medical Foundation Models [54.09244105445476]
本研究は,フェデレート・ラーニング・フレームワーク内で医療基盤モデルを拡張するための新しい知識注入手法であるFedKIMを紹介する。
FedKIMは軽量なローカルモデルを活用して、プライベートデータから医療知識を抽出し、この知識を集中基盤モデルに統合する。
7つのモードで12タスクを対象に実験を行い,FedKIMの有効性について検討した。
論文 参考訳(メタデータ) (2024-08-17T15:42:29Z) - Med-MoE: Mixture of Domain-Specific Experts for Lightweight Medical Vision-Language Models [17.643421997037514]
差別的, 生成的両マルチモーダル医療課題に対処する新しい枠組みを提案する。
Med-MoEの学習は、マルチモーダル医療アライメント、命令チューニングとルーティング、ドメイン固有のMoEチューニングの3つのステップで構成されている。
我々のモデルは最先端のベースラインに匹敵する性能を達成できる。
論文 参考訳(メタデータ) (2024-04-16T02:35:17Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Towards AI-Based Precision Oncology: A Machine Learning Framework for Personalized Counterfactual Treatment Suggestions based on Multi-Omics Data [0.05025737475817938]
本稿では,個別のがん治療提案のためのモジュール型機械学習フレームワークを提案する。
このフレームワークは、データ駆動がん研究に固有の重要な課題に対処するように調整されている。
本手法は,臨床医に現実的な意思決定支援ツールを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-19T14:54:20Z) - Review of multimodal machine learning approaches in healthcare [0.0]
臨床医は、情報的な判断をするために、さまざまなデータソースに依存しています。
機械学習の最近の進歩は、より効率的なマルチモーダルデータの取り込みを促進する。
論文 参考訳(メタデータ) (2024-02-04T12:21:38Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Cross-Modal Information Maximization for Medical Imaging: CMIM [62.28852442561818]
病院では、同じ情報を異なるモダリティの下で利用できるようにする特定の情報システムにデータがサイロ化される。
これは、テスト時に常に利用できないかもしれない同じ情報の複数のビューを列車で取得し、使用するためのユニークな機会を提供する。
テスト時にモダリティの低下に耐性を持つマルチモーダル入力の優れた表現を学習することで、利用可能なデータを最大限活用する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T20:05:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。