論文の概要: Training-Free Adaptation of New-Generation LLMs using Legacy Clinical Models
- arxiv url: http://arxiv.org/abs/2601.03423v1
- Date: Tue, 06 Jan 2026 21:23:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.074859
- Title: Training-Free Adaptation of New-Generation LLMs using Legacy Clinical Models
- Title(参考訳): レガシー臨床モデルを用いた新世代LDMの学習自由適応
- Authors: Sasha Ronaghi, Chloe Stanwyck, Asad Aali, Amir Ronaghi, Miguel Fuentes, Tina Hernandez-Boussard, Emily Alsentzer,
- Abstract要約: Cross-Architecture Proxy Tuning (CAPT) は、最先端の汎用ドメインモデルのトレーニングなし適応を可能にするモデルセンスのアプローチである。
CAPTは相反する語彙を持つモデルをサポートし、コントラストデコーディングを利用して臨床的に関連するシグナルを選択的に注入する。
- 参考スコア(独自算出の注目度): 7.281607744113287
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adapting language models to the clinical domain through continued pretraining and fine-tuning requires costly retraining for each new model generation. We propose Cross-Architecture Proxy Tuning (CAPT), a model-ensembling approach that enables training-free adaptation of state-of-the-art general-domain models using existing clinical models. CAPT supports models with disjoint vocabularies, leveraging contrastive decoding to selectively inject clinically relevant signals while preserving the general-domain model's reasoning and fluency. On six clinical classification and text-generation tasks, CAPT with a new-generation general-domain model and an older-generation clinical model consistently outperforms both models individually and state-of-the-art ensembling approaches (average +17.6% over UniTE, +41.4% over proxy tuning across tasks). Through token-level analysis and physician case studies, we demonstrate that CAPT amplifies clinically actionable language, reduces context errors, and increases clinical specificity.
- Abstract(参考訳): 言語モデルを臨床領域に適応させるには、新しいモデル生成ごとに、事前訓練と微調整を継続する必要がある。
既存の臨床モデルを用いて、最先端の一般ドメインモデルのトレーニング不要適応を可能にするモデルセンマブルアプローチであるCross-Architecture Proxy Tuning (CAPT)を提案する。
CAPTは、相反する語彙を持つモデルをサポートし、対照的なデコードを利用して、一般的なドメインモデルの推論と流布を保ちながら、臨床的に関連するシグナルを選択的に注入する。
6つの臨床分類とテキスト生成タスクにおいて、CAPTは新しいジェネラルドメインモデルと古い世代の臨床モデルは、個々のモデルと最先端のアンサンブルアプローチ(平均+17.6%がUniTE、+41.4%がタスク間のプロキシチューニング)の両方を一貫して上回っている。
トークンレベルの分析と医師ケーススタディを通じて,CAPTは臨床的に実行可能な言語を増幅し,コンテキストエラーを低減し,臨床特異性を高めることを実証した。
関連論文リスト
- Ensemble learning of foundation models for precision oncology [19.813705315667438]
ELF(Ensemble Learning of Foundation Model)は,5つの最先端の病理基盤モデルを統合し,統合されたスライドレベル表現を生成する新しいフレームワークである。
ELFは、すべての構成基盤モデルと既存のスライドレベルモデルに一貫して優れており、精度と堅牢性に優れていた。
論文 参考訳(メタデータ) (2025-08-22T04:36:10Z) - In-Context Learning for Label-Efficient Cancer Image Classification in Oncology [1.741659712094955]
In-context Learning (ICL) は、ドメイン固有の診断タスクに対するモデル再トレーニングの実用的な代替手段である。
視覚言語モデル(VLM)-Paligemma, CLIP, ALIGN, GPT-4o の評価を行った。
ICLは、サイズが小さいにもかかわらず競争力の向上を示し、計算に制約のある臨床環境への展開の可能性を示した。
論文 参考訳(メタデータ) (2025-05-08T20:49:01Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - CPLLM: Clinical Prediction with Large Language Models [0.07083082555458872]
本稿では,臨床疾患に対するLLM(Pre-trained Large Language Model)の微調整と寛容予測を行う手法を提案する。
診断予測には,患者の来訪時に対象疾患と診断されるか,その後に診断されるかを,過去の診断記録を利用して予測する。
提案手法であるCPLLMは,PR-AUCおよびROC-AUCの指標で試験された全てのモデルを上回ることを示した。
論文 参考訳(メタデータ) (2023-09-20T13:24:12Z) - Parameter-Efficient Fine-Tuning of LLaMA for the Clinical Domain [13.912870728383396]
臨床応用のような新しい領域に事前訓練された言語モデルを適用するには、伝統的にパラメータの集合全体をトレーニングする必要がある。
本稿では,2段階のPEFTフレームワークを提案し,臨床領域で評価する。
論文 参考訳(メタデータ) (2023-07-06T15:06:41Z) - Improving Zero-Shot Detection of Low Prevalence Chest Pathologies using
Domain Pre-trained Language Models [0.9049664874474734]
低頻度病理診断のためのドメイン固有事前訓練によるゼロショット分類モデルの性能評価を行った。
従来のCLIP-BERTの重みは、一般的に見られる病態のモデル性能を低下させるが、事前学習したテキストタワーは、低頻度の疾患に対して非常に優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-13T06:26:54Z) - A Transformer-based representation-learning model with unified
processing of multimodal input for clinical diagnostics [63.106382317917344]
本稿では,マルチモーダル入力を統一的に処理する臨床診断支援として,トランスフォーマーを用いた表現学習モデルについて報告する。
統一モデルは, 肺疾患の同定において, 画像のみのモデル, 非統一型マルチモーダル診断モデルより優れていた。
論文 参考訳(メタデータ) (2023-06-01T16:23:47Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。