論文の概要: Personalization of Large Foundation Models for Health Interventions
- arxiv url: http://arxiv.org/abs/2601.03482v1
- Date: Wed, 07 Jan 2026 00:24:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.098886
- Title: Personalization of Large Foundation Models for Health Interventions
- Title(参考訳): 医療介入のための大規模基盤モデルのパーソナライズ
- Authors: Stefan Konigorski, Johannes E. Vedder, Babajide Alamu Owoyele, İbrahim Özkan,
- Abstract要約: 大きな基礎モデル(LFM)は、予防、診断、治療において医療AIを変革する。
最近の研究では、基本的な一般化可能性パラドックスを含む、パーソナライズのための複数の課題が明らかにされている。
優れた能力にもかかわらず、LFMはN-of-1試行に取って代わることはできないと論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large foundation models (LFMs) transform healthcare AI in prevention, diagnostics, and treatment. However, whether LFMs can provide truly personalized treatment recommendations remains an open question. Recent research has revealed multiple challenges for personalization, including the fundamental generalizability paradox: models achieving high accuracy in one clinical study perform at chance level in others, demonstrating that personalization and external validity exist in tension. This exemplifies broader contradictions in AI-driven healthcare: the privacy-performance paradox, scale-specificity paradox, and the automation-empathy paradox. As another challenge, the degree of causal understanding required for personalized recommendations, as opposed to mere predictive capacities of LFMs, remains an open question. N-of-1 trials -- crossover self-experiments and the gold standard for individual causal inference in personalized medicine -- resolve these tensions by providing within-person causal evidence while preserving privacy through local experimentation. Despite their impressive capabilities, this paper argues that LFMs cannot replace N-of-1 trials. We argue that LFMs and N-of-1 trials are complementary: LFMs excel at rapid hypothesis generation from population patterns using multimodal data, while N-of-1 trials excel at causal validation for a given individual. We propose a hybrid framework that combines the strengths of both to enable personalization and navigate the identified paradoxes: LFMs generate ranked intervention candidates with uncertainty estimates, which trigger subsequent N-of-1 trials. Clarifying the boundary between prediction and causation and explicitly addressing the paradoxical tensions are essential for responsible AI integration in personalized medicine.
- Abstract(参考訳): 大きな基礎モデル(LFM)は、予防、診断、治療において医療AIを変革する。
しかし、LFMが真のパーソナライズされた治療勧告を提供するかどうかはまだ未解決のままである。
最近の研究は、パーソナライズに関する複数の課題を明らかにしており、その中には基本的な一般化可能性パラドックスが含まれる: ある臨床研究において高い精度を達成するモデルは、他の臨床研究で偶然にレベルを達成し、パーソナライズと外部の妥当性が緊張の中で存在することを示す。
これは、プライバシ-パフォーマンスパラドックス、スケール-特異性パラドックス、自動化-共感パラドックスといった、AI駆動型医療における幅広い矛盾を実証している。
もう一つの課題として、パーソナライズされたレコメンデーションに必要な因果的理解の度合いは、単にLFMの予測能力とは対照的に、未解決の問題である。
N-of-1臨床試験 -- クロスオーバー自己実験と個人別因果推論のための金の基準 -- は、局所的な実験を通じてプライバシーを保ちながら個人内の因果証拠を提供することで、これらの緊張を解消する。
優れた能力にもかかわらず、LFMはN-of-1試行に取って代わることはできないと論じる。
我々は, LFM と N-of-1 の試験は相補的であり, LFM はマルチモーダルデータを用いた集団パターンからの素早い仮説生成に優れ, N-of-1 の試験は特定の個体に対する因果検証に優れていた。
本研究では,個人化と特定パラドックスのナビゲートを両立させるハイブリッドフレームワークを提案する。
予測と因果関係の境界を明確にし、パラドックス的な緊張に明示的に対処することは、パーソナライズド医療におけるAI統合の責任を負う上で不可欠である。
関連論文リスト
- A Hybrid Enumeration Framework for Optimal Counterfactual Generation in Post-Acute COVID-19 Heart Failure [1.9794615806637272]
本稿では,個別化リスク推定と介入分析のための非現実的推論フレームワークを提案する。
このフレームワークは、厳密な列挙と最適化に基づく手法(NICE(Nearest Instance Counterfactual Explanations)やMOC(Multi-Objective Counterfactuals)アルゴリズムなど)を組み合わせる。
論文 参考訳(メタデータ) (2025-10-21T17:35:12Z) - An Orthogonal Learner for Individualized Outcomes in Markov Decision Processes [55.93922317950527]
DRQ-learnerと呼ばれる新しいメタラーナーを開発した。
DRQ-learnerは離散状態空間と連続状態空間の両方の設定に適用できます。
論文 参考訳(メタデータ) (2025-09-30T15:49:29Z) - Targeted Data Fusion for Causal Survival Analysis Under Distribution Shift [46.84912148188679]
複数のデータソースにまたがる因果推論は、科学的発見の一般化性と複製性を高めるための有望な道を提供する。
既存のアプローチでは、検閲や離散的かつ連続的な時間の統合など、生存分析のユニークな課題に対処できない。
マルチソース設定におけるターゲットサイト固有の因果効果を推定する2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-30T23:21:25Z) - HuLP: Human-in-the-Loop for Prognosis [0.8672882547905405]
HuLPはHuman-in-the-Loop for Prognosisモデルであり、臨床コンテキストにおける予後モデルの信頼性と解釈性を高めるために設計された。
我々は,HuLPの優位性と競争性を示すために,実世界の2つの公開医療データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2024-03-19T18:15:15Z) - DrFuse: Learning Disentangled Representation for Clinical Multi-Modal
Fusion with Missing Modality and Modal Inconsistency [18.291267748113142]
そこで本研究では,DrFuseを効果的に多モード核融合を実現するために提案する。
モダリティに共通する特徴と各モダリティに特有の特徴を分離することで、モダリティの欠如に対処する。
実世界の大規模データセットMIMIC-IVとMIMIC-CXRを用いて提案手法を検証する。
論文 参考訳(メタデータ) (2024-03-10T12:41:34Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - MedDiffusion: Boosting Health Risk Prediction via Diffusion-based Data
Augmentation [58.93221876843639]
本稿では,MedDiffusion という,エンドツーエンドの拡散に基づくリスク予測モデルを提案する。
トレーニング中に合成患者データを作成し、サンプルスペースを拡大することで、リスク予測性能を向上させる。
ステップワイズ・アテンション・メカニズムを用いて患者の来訪者間の隠れた関係を識別し、高品質なデータを生成する上で最も重要な情報をモデルが自動的に保持することを可能にする。
論文 参考訳(メタデータ) (2023-10-04T01:36:30Z) - From Group-Differences to Single-Subject Probability: Conformal
Prediction-based Uncertainty Estimation for Brain-Age Modeling [0.0]
脳年齢差は、障害全体にわたる脳変化の最も調査された危険マーカーの1つである。
我々は不確実性を考慮したディープニューラルネットワークと共形予測理論を組み合わせる。
我々はN=16,794人の被験者のサンプルで、最先端の大規模脳老化モデルとして低い誤差または同等の誤差を示す。
我々のモデルから得られた加速脳老化の確率は、アルツハイマー病、双極性障害、および大うつ病と関連している。
論文 参考訳(メタデータ) (2023-02-10T15:05:09Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。