論文の概要: Tabular LLMs for Interpretable Few-Shot Alzheimer's Disease Prediction with Multimodal Biomedical Data
- arxiv url: http://arxiv.org/abs/2603.17191v1
- Date: Tue, 17 Mar 2026 22:43:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.428034
- Title: Tabular LLMs for Interpretable Few-Shot Alzheimer's Disease Prediction with Multimodal Biomedical Data
- Title(参考訳): 多変量バイオメディカルデータを用いたFew-Shot Alzheimer病予測のためのタブラルLSM
- Authors: Sophie Kearney, Shu Yang, Zixuan Wen, Weimin Lyu, Bojian Hou, Duy Duong-Tran, Tianlong Chen, Jason H. Moore, Marylyn D. Ritchie, Chao Chen, Li Shen,
- Abstract要約: TAP-GPT Tabular Alzheimer's Prediction GPTを提案する。
QT-PADバイオマーカーや領域レベルの構造MRI,アミロイドPET,タウPETなど,ADNI由来の4つのデータセットを対象としたTAP-GPTの評価を行った。
そこで本研究では,TAP-GPTはシミュレーションおよび実世界の欠如下で安定な性能を維持していることを示す。
- 参考スコア(独自算出の注目度): 43.4291712919395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate diagnosis of Alzheimer's disease (AD) requires handling tabular biomarker data, yet such data are often small and incomplete, where deep learning models frequently fail to outperform classical methods. Pretrained large language models (LLMs) offer few-shot generalization, structured reasoning, and interpretable outputs, providing a powerful paradigm shift for clinical prediction. We propose TAP-GPT Tabular Alzheimer's Prediction GPT, a domain-adapted tabular LLM framework built on TableGPT2 and fine-tuned for few-shot AD classification using tabular prompts rather than plain texts. We evaluate TAP-GPT across four ADNI-derived datasets, including QT-PAD biomarkers and region-level structural MRI, amyloid PET, and tau PET for binary AD classification. Across multimodal and unimodal settings, TAP-GPT improves upon its backbone models and outperforms traditional machine learning baselines in the few-shot setting while remaining competitive with state-of-the-art general-purpose LLMs. We show that feature selection mitigates degradation in high-dimensional inputs and that TAP-GPT maintains stable performance under simulated and real-world missingness without imputation. Additionally, TAP-GPT produces structured, modality-aware reasoning aligned with established AD biology and shows greater stability under self-reflection, supporting its use in iterative multi-agent systems. To our knowledge, this is the first systematic application of a tabular-specialized LLM to multimodal biomarker-based AD prediction, demonstrating that such pretrained models can effectively address structured clinical prediction tasks and laying the foundation for tabular LLM-driven multi-agent clinical decision-support systems. The source code is publicly available on GitHub: https://github.com/sophie-kearney/TAP-GPT.
- Abstract(参考訳): アルツハイマー病(AD)の正確な診断には、表層バイオマーカーのデータを扱う必要があるが、そのようなデータは小さく不完全な場合が多く、ディープラーニングモデルは古典的な手法を上回りません。
事前訓練された大言語モデル(LLM)は、少数ショットの一般化、構造化推論、解釈可能な出力を提供し、臨床予測のための強力なパラダイムシフトを提供する。
TAP-GPT Tabular Alzheimer's Prediction GPTは、TableGPT2上に構築されたドメイン適応型表型LCMフレームワークであり、プレーンテキストではなく、表型プロンプトを用いたAD分類のための微調整である。
QT-PADバイオマーカーや領域レベルの構造MRI,アミロイドPET,タウPETなど,ADNI由来の4つのデータセットを対象としたTAP-GPTの評価を行った。
TAP-GPTは、マルチモーダルおよびアンモダル設定全体にわたって、バックボーンモデルを改善し、数ショット設定で従来の機械学習ベースラインを上回っながら、最先端の汎用LLMと競合する。
特徴選択は高次元入力における劣化を軽減し,TAP-GPTはシミュレーションおよび実世界の欠如下で安定した性能を維持していることを示す。
さらに、TAP-GPTは、確立されたAD生物学と整合した構造化されたモダリティを意識した推論を生成し、自己反射下でより大きな安定性を示し、反復的マルチエージェントシステムでの使用をサポートする。
我々の知る限り、これはマルチモーダルバイオマーカーに基づくAD予測に対する表在化LDMの初めての体系的応用であり、そのような事前訓練されたモデルは、構造化された臨床予測タスクに効果的に対処でき、表在化LDM駆動型臨床意思決定支援システムの基礎を築けることを実証している。
ソースコードはGitHubで公開されている。 https://github.com/sophie-kearney/TAP-GPT。
関連論文リスト
- A Federated and Parameter-Efficient Framework for Large Language Model Training in Medicine [59.78991974851707]
大規模言語モデル(LLM)は、質問応答や診断など、医療ベンチマークにおいて強力なパフォーマンスを示している。
ほとんどの医療用LDMは、異種システムの一般化性と安全性の制限に直面している単一の機関のデータに基づいて訓練されている。
本稿では, LLMを医療応用に適用するためのモデルに依存しない, パラメータ効率のよいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-29T18:48:21Z) - Enabling Few-Shot Alzheimer's Disease Diagnosis on Biomarker Data with Tabular LLMs [37.85459699661453]
大規模言語モデル(LLM)は、構造化バイオメディカルデータを用いて予測する前例のない機会を提供する。
アルツハイマー病の診断にTableGPT2を適用したTAP-GPT(Tabular Alzheimer's Prediction GPT)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-31T03:49:31Z) - AD-LLM: Benchmarking Large Language Models for Anomaly Detection [42.48028199802796]
本稿では,大規模な言語モデルが異常検出にどのように役立つかを評価する最初のベンチマークであるAD-LLMを紹介する。
我々は、ゼロショット検出、LLMの事前訓練された知識を用いて、タスク固有のトレーニングなしでADを実行すること、データ拡張、ADモデルを改善するために合成データとカテゴリ記述を生成すること、LLMを使用して教師なしADモデルを提案するモデル選択の3つの主要なタスクについて検討する。
論文 参考訳(メタデータ) (2024-12-15T10:22:14Z) - ClinicRealm: Re-evaluating Large Language Models with Conventional Machine Learning for Non-Generative Clinical Prediction Tasks [37.544994716002016]
LLM(Large Language Models)は、医学においてますます普及している。
しかし, 臨床診断における有用性は未評価のままである。
本研究は,15のGPTスタイルのLCM,5つのBERTスタイルのモデル,11の従来手法をベンチマークすることによって,この問題に対処する。
論文 参考訳(メタデータ) (2024-07-26T06:09:10Z) - Small Models are LLM Knowledge Triggers on Medical Tabular Prediction [39.78560996984352]
小モデルを用いたシナジー学習による汎用的な自己プロンプト手法SERSALを提案する。
本研究は,SERSALが言語的プロンプト法に比べて大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-03-03T17:35:52Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - CancerGPT: Few-shot Drug Pair Synergy Prediction using Large Pre-trained
Language Models [3.682742580232362]
大規模事前学習言語モデル(LLM)は、様々な分野にわたる数ショット学習において大きな可能性を秘めている。
我々の研究は、限られたデータを持つまれな組織において、薬物対のシナジー予測に最初に取り組みました。
論文 参考訳(メタデータ) (2023-04-18T02:49:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。