論文の概要: Knowledge Elicitation with Large Language Models for Interpretable Cancer Stage Identification from Pathology Reports
- arxiv url: http://arxiv.org/abs/2511.01052v1
- Date: Sun, 02 Nov 2025 19:00:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.043977
- Title: Knowledge Elicitation with Large Language Models for Interpretable Cancer Stage Identification from Pathology Reports
- Title(参考訳): 病理報告から解釈可能な癌ステージ同定のための大規模言語モデルを用いた知識の抽出
- Authors: Yeawon Lee, Christopher C. Yang, Chia-Hsuan Chang, Grace Lu-Yao,
- Abstract要約: 本稿では,大きな言語モデルによるがんステージングのためのドメイン固有のルールの推論と適用を可能にすることにより,制限を克服する2つの知識抽出手法を提案する。
1つ目は、KEwLTM(Knowledge Elicitation with Long-Term Memory)で、未発表の病理報告から直接ステージングルールを導出するために反復的なプロンプト戦略を使用している。
第2のKEwRAG(Knowledge Elicitation with Retrieval-Augmented Generation)では、ルールを関連するガイドラインから1ステップで事前抽出し、適用することで、解釈可能性を高め、繰り返しのリカバリオーバーヘッドを回避するという、RAGのバリエーションを採用している。
- 参考スコア(独自算出の注目度): 2.5829043503611318
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cancer staging is critical for patient prognosis and treatment planning, yet extracting pathologic TNM staging from unstructured pathology reports poses a persistent challenge. Existing natural language processing (NLP) and machine learning (ML) strategies often depend on large annotated datasets, limiting their scalability and adaptability. In this study, we introduce two Knowledge Elicitation methods designed to overcome these limitations by enabling large language models (LLMs) to induce and apply domain-specific rules for cancer staging. The first, Knowledge Elicitation with Long-Term Memory (KEwLTM), uses an iterative prompting strategy to derive staging rules directly from unannotated pathology reports, without requiring ground-truth labels. The second, Knowledge Elicitation with Retrieval-Augmented Generation (KEwRAG), employs a variation of RAG where rules are pre-extracted from relevant guidelines in a single step and then applied, enhancing interpretability and avoiding repeated retrieval overhead. We leverage the ability of LLMs to apply broad knowledge learned during pre-training to new tasks. Using breast cancer pathology reports from the TCGA dataset, we evaluate their performance in identifying T and N stages, comparing them against various baseline approaches on two open-source LLMs. Our results indicate that KEwLTM outperforms KEwRAG when Zero-Shot Chain-of-Thought (ZSCOT) inference is effective, whereas KEwRAG achieves better performance when ZSCOT inference is less effective. Both methods offer transparent, interpretable interfaces by making the induced rules explicit. These findings highlight the promise of our Knowledge Elicitation methods as scalable, high-performing solutions for automated cancer staging with enhanced interpretability, particularly in clinical settings with limited annotated data.
- Abstract(参考訳): 患者の予後と治療計画には癌ステージングが重要であるが,非構造的病理報告から病理組織学的TNMステージングを抽出することは永続的な課題である。
既存の自然言語処理(NLP)と機械学習(ML)戦略は、しばしば大きな注釈付きデータセットに依存し、スケーラビリティと適応性を制限する。
本研究では,大きな言語モデル(LLM)を用いて,がんステージングのためのドメイン固有のルールを誘導し,適用できるようにすることにより,これらの制限を克服する2つの知識抽出手法を提案する。
第一に、KEwLTM(Knowledge Elicitation with Long-Term Memory)は、反復的なプロンプト戦略を用いて、ゼロトラルスラベルを必要とせず、注釈のない病理報告から直接ステージングルールを導出する。
第2のKEwRAG(Knowledge Elicitation with Retrieval-Augmented Generation)では、ルールを関連するガイドラインから1ステップで事前抽出し、適用することで、解釈可能性を高め、繰り返しのリカバリオーバーヘッドを回避するという、RAGのバリエーションを採用している。
我々は、LLMの能力を活用して、新しいタスクに事前学習中に学んだ幅広い知識を適用します。
TCGAデータセットから乳がんの病態を報告し,TとNのステージを同定し,オープンソースLLMの様々なベースラインアプローチと比較した。
KEwLTMはZSCOT(Zero-Shot Chain-of-Thought)推論が有効である場合にはKEwRAGよりも優れ,一方KEwRAGはZSCOT推論がより効果的でない場合には性能が向上することを示す。
どちらのメソッドも、インジェクションされたルールを明確にすることで、透過的で解釈可能なインターフェースを提供する。
これらの知見は,特に注釈付きデータに制限のある臨床環境において,自動がんステージングのためのスケーラブルで高いパフォーマンスのソリューションとして,我々の知識抽出法が期待できることを示すものである。
関連論文リスト
- CANDLE: A Cross-Modal Agentic Knowledge Distillation Framework for Interpretable Sarcopenia Diagnosis [3.0245458192729466]
CANDLEは、解釈可能性と性能のトレードオフを緩和し、予測精度を高め、高い決定一貫性を維持する。
このフレームワークは、TMLモデルの知識アセット化に対するスケーラブルなアプローチを提供し、サルコピアおよび潜在的に広い医療領域における解釈可能、再現可能、および臨床的に整合した意思決定支援を可能にする。
論文 参考訳(メタデータ) (2025-07-26T15:50:08Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Leaps Beyond the Seen: Reinforced Reasoning Augmented Generation for Clinical Notes [10.897880916802864]
ReinRAG (ReinRAG) は、入力前情報に基づく長期放電命令のための推論拡張生成(RAG)である。
情報ギャップを埋めるため,グループ正規化報酬による検索品質の向上を目的としたグループベースレトリバー最適化(GRO)を提案する。
実世界のデータセットの実験では、ReinRAGは臨床効果と自然言語生成の指標の両方においてベースラインを上回っている。
論文 参考訳(メタデータ) (2025-06-03T12:59:52Z) - Tripartite-GraphRAG via Plugin Ontologies [0.011161220996480647]
大規模言語モデル(LLM)は、様々な領域で顕著な能力を示してきたが、知識集約的なタスクに苦戦している。
主な制限は、幻覚の傾向、ソーストレーサビリティの欠如(証明)、タイムリーな知識更新における課題である。
本稿では,LLMと三部構造知識グラフ表現を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2025-04-28T10:43:35Z) - AGIR: Assessing 3D Gait Impairment with Reasoning based on LLMs [0.0]
歩行障害は、神経変性疾患の早期診断、疾患モニタリング、治療評価において重要な役割を果たす。
近年のディープラーニングベースのアプローチは、分類精度を一貫して改善しているが、解釈可能性に欠けることが多い。
本稿では、事前訓練されたVQ-VAEモーショントークンライザと、一対のモーショントークン上で微調整されたLarge Language Model(LLM)からなる新しいパイプラインであるAGIRを紹介する。
論文 参考訳(メタデータ) (2025-03-23T17:12:16Z) - Large Language Models-guided Dynamic Adaptation for Temporal Knowledge Graph Reasoning [87.10396098919013]
大規模言語モデル (LLM) は、時間的推論において広範な知識と卓越した能力を示した。
本稿では,時間的知識グラフに基づく推論のためのLarge Language Models-Guided Dynamic Adaptation (LLM-DA)法を提案する。
LLM-DAは、歴史的データを解析し、時間的論理規則を抽出するLLMの機能を利用する。
論文 参考訳(メタデータ) (2024-05-23T04:54:37Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。