論文の概要: From Documents to Spans: Code-Centric Learning for LLM-based ICD Coding
- arxiv url: http://arxiv.org/abs/2603.15270v1
- Date: Mon, 16 Mar 2026 13:37:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.38513
- Title: From Documents to Spans: Code-Centric Learning for LLM-based ICD Coding
- Title(参考訳): 文書からスパンへ:LCMベースのICD符号化のためのコード中心学習
- Authors: Xu Zhang, Wenxin Ma, Chenxu Wu, Rongsheng Wang, Kun Zhang, S. Kevin Zhou,
- Abstract要約: 完全臨床文書からスケーラブルで短いエビデンスの範囲に監督を移行させるトレーニングフレームワークであるCode-Centric Learningを提案する。
提案するフレームワークは,学習コストを大幅に削減し,見えないICD符号の精度を向上し,解釈可能性を維持する,混合学習戦略とコード中心データ拡張から構成される。
- 参考スコア(独自算出の注目度): 29.729356191729888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ICD coding is a critical yet challenging task in healthcare. Recently, LLM-based methods demonstrate stronger generalization than discriminative methods in ICD coding. However, fine-tuning LLMs for ICD coding faces three major challenges. First, existing public ICD coding datasets provide limited coverage of the ICD code space, restricting a model's ability to generalize to unseen codes. Second, naive fine-tuning diminishes the interpretability of LLMs, as few public datasets contain explicit supporting evidence for assigned codes. Third, ICD coding typically involves long clinical documents, making fine-tuning LLMs computationally expensive. To address these issues, we propose Code-Centric Learning, a training framework that shifts supervision from full clinical documents to scalable, short evidence spans. The key idea of this framework is that span-level learning improves LLMs' ability to perform document-level ICD coding. Our proposed framework consists of a mixed training strategy and code-centric data expansion, which substantially reduces training cost, improves accuracy on unseen ICD codes and preserves interpretability. Under the same LLM backbone, our method substantially outperforms strong baselines. Notably, our method enables small-scale LLMs to achieve performance comparable to much larger proprietary models, demonstrating its effectiveness and potential for fully automated ICD coding.
- Abstract(参考訳): ICDコーディングは医療において重要な課題だが、難しい課題である。
近年、LCMに基づく手法は、ICD符号化における差別的手法よりも強力な一般化を示している。
しかし、ICD符号化のための微調整LDMは3つの大きな課題に直面している。
まず、既存のパブリックなICDコーディングデータセットは、ICDコード空間の限られた範囲を提供し、モデルが見えないコードに一般化する能力を制限する。
第二に、暗黙的な微調整は、割り当てられたコードに対する明確な支持証拠を含む公開データセットがほとんどないため、LLMの解釈可能性を減らす。
第3に、ICD符号化は通常、長い臨床文書を伴い、微調整のLCMを計算的に高価にする。
これらの問題に対処するために,完全臨床文書からスケーラブルで短い証拠に監督を移す訓練フレームワークであるCode-Centric Learningを提案する。
このフレームワークの鍵となる考え方は、スパンレベルの学習は、文書レベルのICDコーディングを実行するLLMの能力を改善することである。
提案するフレームワークは,学習コストを大幅に削減し,見えないICD符号の精度を向上し,解釈可能性を維持する,混合学習戦略とコード中心データ拡張から構成される。
同じLDMバックボーンの下では,本手法は強いベースラインを著しく上回る。
特に,本手法により,より大規模なプロプライエタリモデルに匹敵する性能を実現し,その有効性と,完全自動ICD符号化の可能性を示す。
関連論文リスト
- CodeSimpleQA: Scaling Factuality in Code Large Language Models [55.705748501461294]
本稿では,コード関連質問への回答において,LLMの実際の精度を評価するための総合的なベンチマークであるCodeSimpleQAを提案する。
また,66万サンプルの大規模インストラクションコーパスであるCodeSimpleQA-Instructを作成し,教師付き微調整と強化学習を組み合わせたポストトレーニングフレームワークを開発した。
論文 参考訳(メタデータ) (2025-12-22T14:27:17Z) - From Code Foundation Models to Agents and Applications: A Practical Guide to Code Intelligence [150.3696990310269]
大規模言語モデル(LLM)は、自然言語記述を直接関数コードに変換することによって、自動ソフトウェア開発を変革した。
コードLLMに関する総合的な合成と実践的ガイド(一連の解析および探索実験)を提供する。
一般LLM(GPT-4, Claude, LLaMA)とコード特殊化LLM(StarCoder, Code LLaMA, DeepSeek-Coder, QwenCoder)のコード機能の解析を行う。
論文 参考訳(メタデータ) (2025-11-23T17:09:34Z) - Post-Incorporating Code Structural Knowledge into Pretrained Models via ICL for Code Translation [15.73070332657629]
大規模言語モデル(LLM)はソフトウェアマイニングにおいて大きな進歩を遂げた。
ソースコードの構文構造を扱うことは 依然として課題です
本稿では、コード構造知識を事前学習したLLMに組み込むために、インコンテキスト学習(ICL)を用いる。
論文 参考訳(メタデータ) (2025-03-28T10:59:42Z) - OpenCoder: The Open Cookbook for Top-Tier Code Large Language Models [76.59316249991657]
コードのための大規模言語モデル(LLM)は、コード生成、推論タスク、エージェントシステムなど、さまざまな領域で必須になっている。
オープンアクセスのコード LLM はプロプライエタリなモデルの性能レベルに近づきつつあるが、高品質なコード LLM は依然として限られている。
トップクラスのコードLLMであるOpenCoderは、主要なモデルに匹敵するパフォーマンスを達成するだけでなく、研究コミュニティの"オープンクックブック"としても機能します。
論文 参考訳(メタデータ) (2024-11-07T17:47:25Z) - What's Wrong with Your Code Generated by Large Language Models? An Extensive Study [92.62952504133926]
本研究は,3つの一般的なベンチマーク上で,3つの主要なクローズドソースLLMと6つの人気のあるオープンソースLLMの性能評価を行った。
間違ったコードに対するバグの分類を開発し、一般的なバグタイプに対する根本原因を分析した。
本稿では,自己批判を導入し,LLMが生成したコードに対する批判と修正を可能にする,新たな学習自由反復手法を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:27:17Z) - Exploring LLM Multi-Agents for ICD Coding [15.730751450511333]
ICD符号化のためのマルチエージェント方式は実世界の符号化プロセスを効果的に模倣し、一般的な符号と稀な符号の両方の性能を向上させる。
提案手法は, 事前学習や微調整を必要とする最先端のICD符号化手法に匹敵する結果を得るとともに, 稀なコード精度, 説明可能性で性能を向上する。
論文 参考訳(メタデータ) (2024-04-01T15:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。