論文の概要: Explicit Knowledge-Guided In-Context Learning for Early Detection of Alzheimer's Disease
- arxiv url: http://arxiv.org/abs/2511.06215v1
- Date: Sun, 09 Nov 2025 04:01:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.814769
- Title: Explicit Knowledge-Guided In-Context Learning for Early Detection of Alzheimer's Disease
- Title(参考訳): アルツハイマー病早期発見のための明示的知識指導型インコンテキストラーニング
- Authors: Puzhen Su, Yongzhu Miao, Chunxi Guo, Jintao Tang, Shasha Li, Ting Wang,
- Abstract要約: EK-ICLは構造化された明示的知識を統合し、文脈内学習における推論安定性とタスクアライメントを高める。
実験により、EK-ICLは最先端の微調整とICLベースラインを著しく上回っていることが示された。
- 参考スコア(独自算出の注目度): 7.882332873800141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting Alzheimer's Disease (AD) from narrative transcripts remains a challenging task for large language models (LLMs), particularly under out-of-distribution (OOD) and data-scarce conditions. While in-context learning (ICL) provides a parameter-efficient alternative to fine-tuning, existing ICL approaches often suffer from task recognition failure, suboptimal demonstration selection, and misalignment between label words and task objectives, issues that are amplified in clinical domains like AD detection. We propose Explicit Knowledge In-Context Learners (EK-ICL), a novel framework that integrates structured explicit knowledge to enhance reasoning stability and task alignment in ICL. EK-ICL incorporates three knowledge components: confidence scores derived from small language models (SLMs) to ground predictions in task-relevant patterns, parsing feature scores to capture structural differences and improve demo selection, and label word replacement to resolve semantic misalignment with LLM priors. In addition, EK-ICL employs a parsing-based retrieval strategy and ensemble prediction to mitigate the effects of semantic homogeneity in AD transcripts. Extensive experiments across three AD datasets demonstrate that EK-ICL significantly outperforms state-of-the-art fine-tuning and ICL baselines. Further analysis reveals that ICL performance in AD detection is highly sensitive to the alignment of label semantics and task-specific context, underscoring the importance of explicit knowledge in clinical reasoning under low-resource conditions.
- Abstract(参考訳): 物語の書き起こしからアルツハイマー病(AD)を検出することは、大きな言語モデル(LLM)、特にアウト・オブ・ディストリビューション(OOD)やデータスカース条件下では難しい課題である。
In-context Learning (ICL) は微調整の代替としてパラメーター効率が良いが、既存のICLアプローチは、しばしばタスク認識の失敗、準最適表現の選択、ラベル語とタスクの目的のミスアライメント、AD検出のような臨床領域で増幅される問題に悩まされる。
ICLにおける推論安定性とタスクアライメントを高めるために構造化された明示的知識を統合する新しいフレームワークであるExplicit Knowledge In-Context Learners (EK-ICL)を提案する。
EK-ICLには3つの知識要素が組み込まれている: 小言語モデル(SLM)から派生した信頼スコアからタスク関連パターンの基底予測、特徴スコアを解析して構造的差異を捉え、デモ選択を改善すること、LLMとのセマンティックなミスアライメントを解決するためのラベル語置換である。
さらに、EK-ICLは構文解析に基づく検索戦略とアンサンブル予測を用いて、AD転写における意味的同質性の影響を軽減する。
3つのADデータセットにわたる大規模な実験により、EK-ICLは最先端の微調整とICLベースラインを著しく上回ることを示した。
さらに分析したところ、AD検出におけるICL性能は、低リソース条件下での臨床推論における明示的な知識の重要性を強調し、ラベルのセマンティクスとタスク固有のコンテキストのアライメントに非常に敏感であることが判明した。
関連論文リスト
- Linguistic and Audio Embedding-Based Machine Learning for Alzheimer's Dementia and Mild Cognitive Impairment Detection: Insights from the PROCESS Challenge [0.0]
音声は、音響的次元と言語的次元の両方を包含し、認知の低下に対して有望な非侵襲的バイオマーカーを提供する。
本稿では,自然発声音声からの音声埋め込みと言語的特徴を両立させるプロシージャチャレンジのための機械学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-02T06:54:55Z) - Harnessing Textual Semantic Priors for Knowledge Transfer and Refinement in CLIP-Driven Continual Learning [19.210280671911278]
継続的な学習は、過去の知識を忘れずにタスクの流れから学習する能力をモデルに装備することを目的としている。
本稿では,テキスト先行のアンチフォッゲッティングと構造化の性質を利用した統合フレームワークを提案し,セマンティック・アウェア・ナレッジ・トランスファーを導く。
論文 参考訳(メタデータ) (2025-08-03T04:09:00Z) - CANDLE: A Cross-Modal Agentic Knowledge Distillation Framework for Interpretable Sarcopenia Diagnosis [3.0245458192729466]
CANDLEは、解釈可能性と性能のトレードオフを緩和し、予測精度を高め、高い決定一貫性を維持する。
このフレームワークは、TMLモデルの知識アセット化に対するスケーラブルなアプローチを提供し、サルコピアおよび潜在的に広い医療領域における解釈可能、再現可能、および臨床的に整合した意思決定支援を可能にする。
論文 参考訳(メタデータ) (2025-07-26T15:50:08Z) - Improving Multilingual Retrieval-Augmented Language Models through Dialectic Reasoning Argumentations [65.11348389219887]
そこで,Dialectic-RAG(Dialectic-RAG, DRAG)を提案する。
我々は、文脈内学習戦略と、より小さなモデルをインストラクションするための実演の構築の両方において、我々のフレームワークが与える影響を示す。
論文 参考訳(メタデータ) (2025-04-07T06:55:15Z) - Automated Clinical Data Extraction with Knowledge Conditioned LLMs [7.935125803100394]
大規模言語モデル(LLM)は、レポート中の構造化されていないテキストの解釈に有効であるが、ドメイン固有の知識の欠如により幻覚することが多い。
In-context Learning (ICL) を通じて生成された内部知識を外部知識と整合させる新しい枠組みを提案する。
本フレームワークでは,検索した内部知識および外部知識の関連単位を抽出し,抽出した内部知識規則の真偽と有用性を評価する。
論文 参考訳(メタデータ) (2024-06-26T02:49:28Z) - XAI4LLM. Let Machine Learning Models and LLMs Collaborate for Enhanced In-Context Learning in Healthcare [16.79952669254101]
本稿では,大規模言語モデルによる構造化された臨床データ処理を実現するための知識誘導型インコンテキスト学習フレームワークを提案する。
このアプローチでは、ドメイン固有の機能グループ化、慎重にバランスのとれた数ショットの例、タスク固有のプロンプト戦略を統合する。
論文 参考訳(メタデータ) (2024-05-10T06:52:44Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Label Words are Anchors: An Information Flow Perspective for
Understanding In-Context Learning [77.7070536959126]
大規模言語モデル(LLM)の有望な能力としてインコンテキスト学習(ICL)が出現する
本稿では,情報フローレンズを用いたICLの動作機構について検討する。
本稿では,ICL性能向上のためのアンカー再重み付け手法,推論の高速化のための実演圧縮手法,GPT2-XLにおけるICLエラーの診断のための解析フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T15:26:20Z) - Leveraging Pretrained Representations with Task-related Keywords for
Alzheimer's Disease Detection [69.53626024091076]
アルツハイマー病(AD)は高齢者に特に顕著である。
事前学習モデルの最近の進歩は、AD検出モデリングを低レベル特徴から高レベル表現にシフトさせる動機付けとなっている。
本稿では,高レベルの音響・言語的特徴から,より優れたAD関連手がかりを抽出する,いくつかの効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-03-14T16:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。