論文の概要: One Patient, Many Contexts: Scaling Medical AI Through Contextual Intelligence
- arxiv url: http://arxiv.org/abs/2506.10157v1
- Date: Wed, 11 Jun 2025 20:23:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.437914
- Title: One Patient, Many Contexts: Scaling Medical AI Through Contextual Intelligence
- Title(参考訳): ひとつの患者、多くのコンテキスト:コンテキストインテリジェンスによる医療AIのスケーリング
- Authors: Michelle M. Li, Ben Y. Reis, Adam Rodman, Tianxi Cai, Noa Dagan, Ran D. Balicer, Joseph Loscalzo, Isaac S. Kohane, Marinka Zitnik,
- Abstract要約: 医療AIにおけるコンテキストスイッチングのビジョンを概説する。
現在のモデルは、医療の進化する状況にまたがって行動の動的調整に苦慮している。
我々は、専門分野や地域にわたって幅広い病気を診断、管理、治療するためのコンテキストスイッチングAIを構想する。
- 参考スコア(独自算出の注目度): 12.142878807712721
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical foundation models, including language models trained on clinical notes, vision-language models on medical images, and multimodal models on electronic health records, can summarize clinical notes, answer medical questions, and assist in decision-making. Adapting these models to new populations, specialties, or settings typically requires fine-tuning, careful prompting, or retrieval from knowledge bases. This can be impractical, and limits their ability to interpret unfamiliar inputs and adjust to clinical situations not represented during training. As a result, models are prone to contextual errors, where predictions appear reasonable but fail to account for critical patient-specific or contextual information. These errors stem from a fundamental limitation that current models struggle with: dynamically adjusting their behavior across evolving contexts of medical care. In this Perspective, we outline a vision for context-switching in medical AI: models that dynamically adapt their reasoning without retraining to new specialties, populations, workflows, and clinical roles. We envision context-switching AI to diagnose, manage, and treat a wide range of diseases across specialties and regions, and expand access to medical care.
- Abstract(参考訳): 医療基礎モデルは、臨床ノートで訓練された言語モデル、医用画像のビジョン言語モデル、電子健康記録のマルチモーダルモデルを含み、臨床ノートを要約し、医学的な質問に答え、意思決定を支援することができる。
これらのモデルを新しい人口、専門分野、あるいは設定に適用するには、通常、微調整、注意深いプロンプト、知識ベースからの検索が必要である。
これは非現実的であり、不慣れな入力を解釈し、訓練中に表現されない臨床状況に適応する能力を制限することができる。
結果として、モデルはコンテキストエラーを起こしやすいため、予測は妥当に見えるが、重要な患者固有の情報やコンテキスト情報の考慮に失敗する。
これらの誤りは、現在のモデルが抱える基本的な限界、すなわち、医療の進化する状況にまたがる振る舞いを動的に調整することに由来する。
このパースペクティブでは、医療AIにおけるコンテキストスイッチングのビジョンを概観する。新たな専門分野、人口、ワークフロー、臨床的役割に再訓練することなく、推論を動的に適応させるモデルである。
我々は、コンテキストスイッチングAIを構想し、専門分野や地域にわたって幅広い疾患を診断、管理、治療し、医療へのアクセスを拡大する。
関連論文リスト
- SilVar-Med: A Speech-Driven Visual Language Model for Explainable Abnormality Detection in Medical Imaging [1.220481237642298]
本稿では,マルチモーダル医療画像アシスタントSilVar-Medを紹介する。
提案する推論データセットを用いて,医学的異常予測の背景にある推論の解釈に焦点をあてる。
この研究は、より透明でインタラクティブで、臨床的に実行可能な診断支援システムを育むことで、医療AIの分野を前進させると信じています。
論文 参考訳(メタデータ) (2025-04-14T18:51:37Z) - From large language models to multimodal AI: A scoping review on the potential of generative AI in medicine [40.23383597339471]
マルチモーダルAIは、イメージング、テキスト、構造化データを含む多様なデータモダリティを単一のモデルに統合することができる。
このスコーピングレビューは、マルチモーダルAIの進化を探求し、その方法、アプリケーション、データセット、臨床環境での評価を強調している。
診断支援,医療報告生成,薬物発見,会話型AIの革新を推進し,一過性のアプローチからマルチモーダルアプローチへのシフトを示唆した。
論文 参考訳(メタデータ) (2025-02-13T11:57:51Z) - A Survey of Medical Vision-and-Language Applications and Their Techniques [48.268198631277315]
医療ビジョン・アンド・ランゲージモデル(MVLM)は、複雑な医療データを解釈するための自然言語インタフェースを提供する能力から、大きな関心を集めている。
本稿では,MVLMの概要と適用した各種医療課題について概観する。
また、これらのタスクに使用するデータセットについても検討し、標準化された評価指標に基づいて異なるモデルの性能を比較した。
論文 参考訳(メタデータ) (2024-11-19T03:27:05Z) - Towards Next-Generation Medical Agent: How o1 is Reshaping Decision-Making in Medical Scenarios [46.729092855387165]
本稿では,医療用AIエージェントのバックボーンLSMの選択について検討する。
我々の研究結果は、o1の診断精度と一貫性を高める能力を示し、よりスマートでより応答性の高いAIツールへの道を開いた。
論文 参考訳(メタデータ) (2024-11-16T18:19:53Z) - Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Almanac: Retrieval-Augmented Language Models for Clinical Medicine [1.5505279143287174]
医療ガイドラインと治療勧告の検索機能を備えた大規模言語モデルフレームワークであるAlmanacを開発した。
5人の医師と医師のパネルで評価された新しい臨床シナリオのデータセットの性能は、事実性の顕著な増加を示している。
論文 参考訳(メタデータ) (2023-03-01T02:30:11Z) - Self-supervised Multi-modal Training from Uncurated Image and Reports
Enables Zero-shot Oversight Artificial Intelligence in Radiology [31.045221580446963]
医療用クロスアテンションビジョンランゲージモデル(医療用X-VL)を提案する。
我々のモデルは、ゼロショット分類からゼロショット誤り訂正まで、さまざまなゼロショットタスクを監視できる。
提案手法は,データ制限設定において特に有効であり,医療領域に広く適用可能である可能性が示唆された。
論文 参考訳(メタデータ) (2022-08-10T04:35:58Z) - Towards more patient friendly clinical notes through language models and
ontologies [57.51898902864543]
本稿では,単語の単純化と言語モデリングに基づく医療用テキストの自動作成手法を提案する。
我々は,公開医療文のデータセットペアと,臨床医による簡易化版を用いている。
本手法は,医学フォーラムデータに基づく言語モデルを用いて,文法と本来の意味の両方を保存しながら,より単純な文を生成する。
論文 参考訳(メタデータ) (2021-12-23T16:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。