論文の概要: Training a Large Language Model for Medical Coding Using Privacy-Preserving Synthetic Clinical Data
- arxiv url: http://arxiv.org/abs/2603.23515v1
- Date: Fri, 06 Mar 2026 02:02:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-06 02:36:12.999916
- Title: Training a Large Language Model for Medical Coding Using Privacy-Preserving Synthetic Clinical Data
- Title(参考訳): プライバシ保存臨床データを用いた医用符号化のための大規模言語モデルの訓練
- Authors: John Cook, Michael Wyatt, Peng Wei, Iris Chin, Santosh Gupta, Van Zyl Van Vuuren, Richie Siburian, Amanda Spicer, Kristen Viviano, Alda Cami, Raunaq Malhotra, Zhewei Yao, Jeff Rasley, Gaurav Kaushik,
- Abstract要約: 本稿では,現代のオープンウェイト基盤モデルが,専門家レベルの医療用コーディングタスクに適応できるかどうかを検討する。
Llama 3-70B を EHR-grounded templates と code policy から生成された臨床ノートとゴールドコードに微調整する。
合成コーパスの微調整の後、精度の高いF1は0.70を超え、両方のコードシステムで絶対的な利得を示している。
- 参考スコア(独自算出の注目度): 10.24013423253024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Improving the accuracy and reliability of medical coding reduces clinician burnout and supports revenue cycle processes, freeing providers to focus more on patient care. However, automating the assignment of ICD-10-CM and CPT codes from clinical documentation remains a challenge due to heterogeneous records, nuanced coding guidelines, and long-tail distributions. Large language models have been proposed to help or automate specific medical coding tasks. However, foundation models are not explicitly trained for medical coding and zero-shot coding has yielded poor results. We investigate whether a modern open-weight foundation model can be adapted for an expert-level medical coding task using privacy-preserving synthetic training data derived from electronic health records. We fine-tune Llama 3-70B on pairs of clinical notes and gold codes generated from EHR-grounded templates and coding policies, then evaluate exact-code prediction for ICD-10-CM and CPT. A zero-shot baseline with the unadapted model achieved an F1 score of 0.18 for exact code match. After fine-tuning on the synthetic corpus, exact-match F1 exceeded 0.70, representing a large absolute gain across both code systems. Notably, performance remained high on complex categories that often require multi-step clinical reasoning and code composition, including Advanced Illness and Frailty classes, and the model retained its performance on medical comprehension tasks. These results indicate that synthetic, policy-aware data can efficiently teach a general-purpose large language model to support precise medical coding without exposing protected health information. The approach offers a practical path for training coding agents safely and iteratively on specific tasks that represent real-world populations.
- Abstract(参考訳): 医療コーディングの正確性と信頼性の向上により、クリニックのバーンアウトが減少し、収益サイクルのプロセスがサポートされ、提供者は患者のケアに集中できるようになる。
しかし,ICD-10-CMとCPT符号の自動割り当ては,異質な記録,ニュアンスな符号化ガイドライン,長いテール分布などにより,依然として困難である。
特定の医学的コーディングタスクを支援するか、自動化するために、大規模な言語モデルが提案されている。
しかし、基礎モデルは医学的コーディングのために明示的に訓練されていないため、ゼロショットコーディングは結果の低さをもたらしている。
電子健康記録から得られたプライバシー保護型総合訓練データを用いて,現代のオープンウェイト基盤モデルを専門家レベルの医療コーディングタスクに適用できるかどうかを検討する。
ICD-10-CM と CPT の正確なコード予測を行うため,EHR のテンプレートと符号化ポリシから生成された臨床メモとゴールドコードに Llama 3-70B を微調整した。
未適応モデルのゼロショットベースラインは、正確なコードマッチングでF1スコアが0.18に達した。
合成コーパスの微調整の後、精度の高いF1は0.70を超え、両方のコードシステムで絶対的な利得を示している。
特に、多段階の臨床推論とコード構成を必要とする複雑なカテゴリーでは、高度な病気や虚偽のクラスを含むパフォーマンスが高く、医療的理解タスクではそのパフォーマンスが保たれていた。
これらの結果から,保護された健康情報を公開することなく,総合的な大規模言語モデルを効率的に学習し,正確な医学的コーディングを支援することが示唆された。
このアプローチは、現実世界の人口を表す特定のタスクに対して、安全かつ反復的にコーディングエージェントを訓練するための実践的なパスを提供する。
関連論文リスト
- MedDCR: Learning to Design Agentic Workflows for Medical Coding [55.51674334874892]
医療符号化は、フリーテキスト臨床ノートを標準化された診断および手続きコードに変換する。
本稿では,設計を学習問題として扱うクローズドループフレームワークであるMedDCRを提案する。
ベンチマークデータセットでは、MedDCRは最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2025-11-17T13:30:51Z) - Evaluating Hierarchical Clinical Document Classification Using Reasoning-Based LLMs [7.026393789313748]
本研究は,大規模言語モデル(LLM)が病院退院サマリーからICD-10コードをどのように分類できるかを評価する。
推論ベースのモデルは一般的に非推論モデルよりも優れており、ジェミニ2.5 Proは全体として最高のパフォーマンスを示した。
論文 参考訳(メタデータ) (2025-07-02T00:53:54Z) - Can GPT-3.5 Generate and Code Discharge Summaries? [45.633849969788315]
ICD-10のコード記述リストに基づいて,9,606個の放電サマリーを生成し,符号化した。
ニューラルネットワークモデルはベースラインと拡張データに基づいて訓練された。
マイクロF1スコアとマクロF1スコアを全コードセット、生成コードおよびそれらの家族について報告する。
論文 参考訳(メタデータ) (2024-01-24T15:10:13Z) - Automated clinical coding using off-the-shelf large language models [10.365958121087305]
診断用ICD符号を患者病院入院に割り当てる作業は、典型的には、熟練した人間のコーダーによって行われる。
自動ICD符号化への取り組みは、教師付きディープラーニングモデルによって支配されている。
本研究では,既製の事前学習型大規模言語モデルを活用し,実用的ソリューションを開発する。
論文 参考訳(メタデータ) (2023-10-10T11:56:48Z) - Automated Medical Coding on MIMIC-III and MIMIC-IV: A Critical Review
and Replicability Study [60.56194508762205]
我々は、最先端の医療自動化機械学習モデルを再現し、比較し、分析する。
その結果, 弱い構成, サンプル化の不十分さ, 評価の不十分さなどにより, いくつかのモデルの性能が低下していることが判明した。
再生モデルを用いたMIMIC-IVデータセットの総合評価を行った。
論文 参考訳(メタデータ) (2023-04-21T11:54:44Z) - Read, Attend, and Code: Pushing the Limits of Medical Codes Prediction
from Clinical Notes by Machines [0.42641920138420947]
医用コード代入マッピングを学習するための、読み取り、 attend、および Code (RAC) モデルを提示する。
RACは、現在最高のマクロF1を18.7%上回るSOTA(the New State of the Art)を確立している。
この新たなマイルストーンは、マシンにおける完全自律型医療コーディング(AMC)への重要な一歩となる。
論文 参考訳(メタデータ) (2021-07-10T06:01:58Z) - A Meta-embedding-based Ensemble Approach for ICD Coding Prediction [64.42386426730695]
国際疾病分類 (icd) は、世界中で臨床コーディングに使われているデファクトコードである。
これらのコードにより、医療提供者は償還を請求し、診断情報の効率的な保管と検索を容易にします。
提案手法は,日常的な医学データと科学論文の外部知識を用いて,効果的に単語ベクトルを訓練することにより,神経モデルの性能を高める。
論文 参考訳(メタデータ) (2021-02-26T17:49:58Z) - Collaborative residual learners for automatic icd10 prediction using
prescribed medications [45.82374977939355]
本稿では,処方用データのみを用いたicd10符号の自動予測のための協調残差学習モデルを提案する。
平均精度0.71および0.57のマルチラベル分類精度、F1スコア0.57および0.38の0.73および0.44の精度を取得し、患者および外来データセットの主診断をそれぞれ予測します。
論文 参考訳(メタデータ) (2020-12-16T07:07:27Z) - Ensemble model for pre-discharge icd10 coding prediction [45.82374977939355]
正確なコード予測のための複数の臨床データソースを組み込んだアンサンブルモデルを提案する。
平均精度は0.73および0.58、F1スコアは0.56および0.35、患者および外来データセットの主診断予測では0.71および0.4のマルチラベル分類精度を得る。
論文 参考訳(メタデータ) (2020-12-16T07:02:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。