論文の概要: TT-XAI: Trustworthy Clinical Text Explanations via Keyword Distillation and LLM Reasoning
- arxiv url: http://arxiv.org/abs/2508.08273v1
- Date: Wed, 30 Jul 2025 16:28:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-17 22:58:06.156971
- Title: TT-XAI: Trustworthy Clinical Text Explanations via Keyword Distillation and LLM Reasoning
- Title(参考訳): TT-XAI キーワード蒸留と LLM 推論による信頼できる臨床テキスト説明
- Authors: Kristian Miok, Blaz Škrlj, Daniela Zaharie, Marko Robnik Šikonja,
- Abstract要約: 本研究は,ドメイン認識型キーワード蒸留による分類性能と解釈性の両方を改善するフレームワークであるTT-XAIを紹介する。
大言語モデル(LLM)を操るキーワード誘導プロンプトを用いて、チェーン・オブ・シークレットな臨床説明を生成する。
全ての評価モダリティはキーワード拡張法を常に好んでおり、蒸留が機械と人間の双方の解釈可能性を高めることを確認している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clinical language models often struggle to provide trustworthy predictions and explanations when applied to lengthy, unstructured electronic health records (EHRs). This work introduces TT-XAI, a lightweight and effective framework that improves both classification performance and interpretability through domain-aware keyword distillation and reasoning with large language models (LLMs). First, we demonstrate that distilling raw discharge notes into concise keyword representations significantly enhances BERT classifier performance and improves local explanation fidelity via a focused variant of LIME. Second, we generate chain-of-thought clinical explanations using keyword-guided prompts to steer LLMs, producing more concise and clinically relevant reasoning. We evaluate explanation quality using deletion-based fidelity metrics, self-assessment via LLaMA-3 scoring, and a blinded human study with domain experts. All evaluation modalities consistently favor the keyword-augmented method, confirming that distillation enhances both machine and human interpretability. TT-XAI offers a scalable pathway toward trustworthy, auditable AI in clinical decision support.
- Abstract(参考訳): 臨床言語モデルは、長く構造化されていない電子健康記録(EHR)に適用した場合、信頼できる予測と説明を提供するのに苦労することが多い。
本研究は,ドメイン認識型キーワード蒸留と大規模言語モデル(LLM)による推論により,分類性能と解釈可能性の両方を改善する軽量かつ効果的なフレームワークであるTT-XAIを紹介する。
まず, 生の排出音を簡潔なキーワード表現に蒸留することにより, BERT分類器の性能が著しく向上し, LIMEの焦点を絞った変種による局所的説明精度が向上することが実証された。
第2に,キーワード誘導プロンプトを用いてLLMを操り,より簡潔かつ臨床的に関連性のある推論を行う。
我々は,削除に基づく忠実度測定,LLaMA-3スコアリングによる自己評価,ドメインエキスパートによる盲人研究を用いて,説明品質の評価を行った。
全ての評価モダリティはキーワード拡張法を常に好んでおり、蒸留が機械と人間の双方の解釈可能性を高めることを確認している。
TT-XAIは、臨床意思決定支援において信頼できる監査可能なAIへのスケーラブルなパスを提供する。
関連論文リスト
- Medical Reasoning in the Era of LLMs: A Systematic Review of Enhancement Techniques and Applications [59.721265428780946]
医学における大きな言語モデル(LLM)は印象的な能力を実現しているが、体系的で透明で検証可能な推論を行う能力に重大なギャップが残っている。
本稿は、この新興分野に関する最初の体系的なレビューを提供する。
本稿では,学習時間戦略とテスト時間メカニズムに分類した推論強化手法の分類法を提案する。
論文 参考訳(メタデータ) (2025-08-01T14:41:31Z) - DocCHA: Towards LLM-Augmented Interactive Online diagnosis System [17.975659876934895]
DocCHAは、診断プロセスを3段階に分解することで臨床推論をエミュレートする、信頼性に配慮したモジュラーなフレームワークである。
実世界の中国のコンサルティングデータセットを2つ評価した。
論文 参考訳(メタデータ) (2025-07-10T15:52:04Z) - Devising a Set of Compact and Explainable Spoken Language Feature for Screening Alzheimer's Disease [52.46922921214341]
アルツハイマー病(AD)は高齢化社会において最も重要な健康問題の一つとなっている。
我々は,大言語モデル(LLM)とTF-IDFモデルの視覚的機能を活用する,説明可能な効果的な機能セットを考案した。
当社の新機能は、自動ADスクリーニングの解釈可能性を高めるステップバイステップで説明し、解釈することができる。
論文 参考訳(メタデータ) (2024-11-28T05:23:22Z) - Adversarial Prompt Distillation for Vision-Language Models [63.24270920122456]
Adversarial Prompt Tuning (APT) は、迅速なチューニングの過程において、相手のトレーニングを適用する。
APDは、マルチモーダルな知識伝達と統合してAPTを強化するバイモーダルな知識蒸留フレームワークである。
複数のベンチマークデータセットに対する大規模な実験は、現在最先端のAPT法よりもAPD法の方が優れていることを示す。
論文 参考訳(メタデータ) (2024-11-22T03:02:13Z) - Profiling Patient Transcript Using Large Language Model Reasoning Augmentation for Alzheimer's Disease Detection [4.961581278723015]
アルツハイマー病(AD)は認知症の主要な原因であり、徐々に音声や言語能力の低下が特徴である。
近年の深層学習は自発音声によるAD自動検出を容易にする。
各発話中のテキストパターンを,患者の言語的特徴をグローバルに把握せずに直接モデル化する。
論文 参考訳(メタデータ) (2024-09-19T07:58:07Z) - SemioLLM: Evaluating Large Language Models for Diagnostic Reasoning from Unstructured Clinical Narratives in Epilepsy [45.2233252981348]
臨床知識を符号化するための言語モデル(LLM)が示されている。
6つの最先端モデルをベンチマークする評価フレームワークであるSemioLLMを提案する。
ほとんどのLSMは、脳内の発作発生領域の確率的予測を正確かつ確実に生成できることを示す。
論文 参考訳(メタデータ) (2024-07-03T11:02:12Z) - Attribute Structuring Improves LLM-Based Evaluation of Clinical Text Summaries [56.31117605097345]
大規模言語モデル(LLM)は、正確な臨床テキスト要約を生成する可能性を示しているが、根拠付けと評価に関する問題に苦慮している。
本稿では、要約評価プロセスを構成するAttribute Structuring(AS)を用いた一般的な緩和フレームワークについて検討する。
ASは、臨床テキスト要約における人間のアノテーションと自動メトリクスの対応性を一貫して改善する。
論文 参考訳(メタデータ) (2024-03-01T21:59:03Z) - The Sound of Healthcare: Improving Medical Transcription ASR Accuracy
with Large Language Models [0.0]
大言語モデル(LLM)は、医学転写における音声認識システム(ASR)の精度を高めることができる。
本研究は, 単語誤り率(WER), 医用概念WER(MC-WER)の精度向上, 話者ダイアリゼーション精度の向上に焦点を当てた。
論文 参考訳(メタデータ) (2024-02-12T14:01:12Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。