論文の概要: Automated clinical coding using off-the-shelf large language models
- arxiv url: http://arxiv.org/abs/2310.06552v1
- Date: Tue, 10 Oct 2023 11:56:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 15:48:18.029023
- Title: Automated clinical coding using off-the-shelf large language models
- Title(参考訳): オフザシェルフ大言語モデルを用いた自動臨床コーディング
- Authors: Joseph S. Boyle, Antanas Kascenas, Pat Lok, Maria Liakata, Alison Q.
O'Neil
- Abstract要約: 診断用ICD符号を患者病院入院に割り当てる作業は、典型的には、熟練した人間のコーダーによって行われる。
既製の事前学習型大言語モデル(LLM)を活用し,ゼロショットと少数ショットの符号割り当てに適した実用的なソリューションを開発する。
本手法は,従来の0.225のマクロF1を,0.216と0.219と比較して0.157のマイクロF1をわずかに低めに達成した。
- 参考スコア(独自算出の注目度): 10.365958121087305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of assigning diagnostic ICD codes to patient hospital admissions is
typically performed by expert human coders. Efforts towards automated ICD
coding are dominated by supervised deep learning models. However, difficulties
in learning to predict the large number of rare codes remain a barrier to
adoption in clinical practice. In this work, we leverage off-the-shelf
pre-trained generative large language models (LLMs) to develop a practical
solution that is suitable for zero-shot and few-shot code assignment.
Unsupervised pre-training alone does not guarantee precise knowledge of the ICD
ontology and specialist clinical coding task, therefore we frame the task as
information extraction, providing a description of each coded concept and
asking the model to retrieve related mentions. For efficiency, rather than
iterating over all codes, we leverage the hierarchical nature of the ICD
ontology to sparsely search for relevant codes. Then, in a second stage, which
we term 'meta-refinement', we utilise GPT-4 to select a subset of the relevant
labels as predictions. We validate our method using Llama-2, GPT-3.5 and GPT-4
on the CodiEsp dataset of ICD-coded clinical case documents. Our tree-search
method achieves state-of-the-art performance on rarer classes, achieving the
best macro-F1 of 0.225, whilst achieving slightly lower micro-F1 of 0.157,
compared to 0.216 and 0.219 respectively from PLM-ICD. To the best of our
knowledge, this is the first method for automated ICD coding requiring no
task-specific learning.
- Abstract(参考訳): 診断用ICD符号を患者病院入院に割り当てる作業は、典型的には熟練した人間のコーダーによって行われる。
自動icdコーディングへの取り組みは、教師付きディープラーニングモデルによって支配されている。
しかし、多くの稀なコードを予測することの難しさは、臨床実践における導入の障壁となっている。
本研究では,既成の事前学習型大言語モデル(llms)を用いて,ゼロショットと少数ショットのコード割り当てに適した実用的なソリューションを開発する。
教師なし事前学習だけでは、ICDオントロジーの正確な知識と専門的な臨床コーディングタスクが保証されないため、タスクを情報抽出として枠づけ、各コード概念の説明を提供し、関連する言及の検索をモデルに依頼する。
効率性のために、すべてのコードを反復するのではなく、ICDオントロジーの階層的な性質を活用して、関連コードを探す。
次に,「メタリファインメント」と呼ぶ第2段階において,関連するラベルのサブセットを予測として選択するためにGPT-4を利用する。
ICD 符号化臨床症例文書の CodiEsp データセット上で Llama-2, GPT-3.5, GPT-4 を用いて本手法の有効性を検証した。
PLM-ICD から 0.216 と 0.219 に対して 0.157 のマイクロ F1 をわずかに下限に抑えながら 0.225 のマクロ F1 を達成する。
我々の知る限りでは、これはタスク固有の学習を必要としない自動ICD符号化のための最初の方法である。
関連論文リスト
- Auxiliary Knowledge-Induced Learning for Automatic Multi-Label Medical Document Classification [22.323705343864336]
3つのアイデアを取り入れた新しいICDインデクシング手法を提案する。
臨床ノートから情報を収集するために,多レベル深部拡張残差畳み込みエンコーダを用いた。
我々はICD分類の課題を医療記録の補助的知識で定式化する。
論文 参考訳(メタデータ) (2024-05-29T13:44:07Z) - Exploring LLM Multi-Agents for ICD Coding [15.730751450511333]
ICD符号化のためのマルチエージェント方式は実世界の符号化プロセスを効果的に模倣し、一般的な符号と稀な符号の両方の性能を向上させる。
提案手法は, 事前学習や微調整を必要とする最先端のICD符号化手法に匹敵する結果を得るとともに, 稀なコード精度, 説明可能性で性能を向上する。
論文 参考訳(メタデータ) (2024-04-01T15:17:39Z) - CoRelation: Boosting Automatic ICD Coding Through Contextualized Code
Relation Learning [56.782963838838036]
我々は,ICDコード表現の学習を促進するために,文脈的かつ柔軟なフレームワークである新しい手法を提案する。
提案手法では,可能なすべてのコード関係をモデル化する際の臨床ノートのコンテキストを考慮した,依存型学習パラダイムを採用している。
論文 参考訳(メタデータ) (2024-02-24T03:25:28Z) - A Two-Stage Decoder for Efficient ICD Coding [10.634394331433322]
ICD符号の予測のための2段階復号機構を提案する。
まず、まず親コードを予測し、その子コードを前回の予測に基づいて予測する。
公開MIMIC-IIIデータセット実験により,本モデルが単一モデル設定で良好に動作することを示す。
論文 参考訳(メタデータ) (2023-05-27T17:25:13Z) - HiCu: Leveraging Hierarchy for Curriculum Learning in Automated ICD
Coding [2.274915755738124]
我々は、自然言語記述からICDの診断と手順コードを予測するマルチラベル分類モデルのためのカリキュラムを作成する。
提案するカリキュラムは、リカレント、畳み込み、トランスフォーマーベースのアーキテクチャにまたがるニューラルネットワークベースの予測モデルの一般化を改善する。
論文 参考訳(メタデータ) (2022-08-03T18:39:27Z) - Discrete Key-Value Bottleneck [95.61236311369821]
ディープニューラルネットワークは、データストリームがi.d.d.であり、ラベル付きデータが豊富である分類タスクでうまく機能する。
この課題に対処した強力なアプローチの1つは、手軽に利用可能なデータ量に対する大規模なエンコーダの事前トレーニングと、タスク固有のチューニングである。
しかし、新しいタスクを考えると、多くの重みを微調整する必要があるため、エンコーダの重みを更新することは困難であり、その結果、以前のタスクに関する情報を忘れてしまう。
この問題に対処するモデルアーキテクチャを提案し,個別かつ学習可能なキー値符号のペアを含む離散的ボトルネックの上に構築する。
論文 参考訳(メタデータ) (2022-07-22T17:52:30Z) - TransICD: Transformer Based Code-wise Attention Model for Explainable
ICD Coding [5.273190477622007]
国際疾患分類法 (ICD) は, 医療分野の請求システムにおいて有効かつ重要であることが示されている。
現在、ICDコードは手動で臨床メモに割り当てられており、多くのエラーを引き起こす可能性がある。
本稿では,文書のトークン間の相互依存を捉えるためにトランスフォーマーベースのアーキテクチャを適用し,コードワイド・アテンション・メカニズムを用いて文書全体のコード固有表現を学習する。
論文 参考訳(メタデータ) (2021-03-28T05:34:32Z) - A Meta-embedding-based Ensemble Approach for ICD Coding Prediction [64.42386426730695]
国際疾病分類 (icd) は、世界中で臨床コーディングに使われているデファクトコードである。
これらのコードにより、医療提供者は償還を請求し、診断情報の効率的な保管と検索を容易にします。
提案手法は,日常的な医学データと科学論文の外部知識を用いて,効果的に単語ベクトルを訓練することにより,神経モデルの性能を高める。
論文 参考訳(メタデータ) (2021-02-26T17:49:58Z) - GaNDLF: A Generally Nuanced Deep Learning Framework for Scalable
End-to-End Clinical Workflows in Medical Imaging [76.38169390121057]
コミュニティ主導型汎用ディープラーニングフレームワークGaNDLF(Generally Nuanced Deep Learning Framework)について紹介する。
GaNDLFは、DL開発、トレーニング、推論のメカニズムをより安定させ、再現可能で、解釈可能で、スケーラブルにする。
放射線画像と病理画像の両方をGaNDLFで解析し,k-foldクロスバリデーションをサポートした。
論文 参考訳(メタデータ) (2021-02-26T02:24:52Z) - Inheritance-guided Hierarchical Assignment for Clinical Automatic
Diagnosis [50.15205065710629]
臨床診断は、臨床ノートに基づいて患者に診断符号を割り当てることを目的としており、臨床意思決定において重要な役割を担っている。
本稿では,臨床自動診断のための継承誘導階層と共起グラフの伝播を組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-27T13:16:51Z) - Collaborative residual learners for automatic icd10 prediction using
prescribed medications [45.82374977939355]
本稿では,処方用データのみを用いたicd10符号の自動予測のための協調残差学習モデルを提案する。
平均精度0.71および0.57のマルチラベル分類精度、F1スコア0.57および0.38の0.73および0.44の精度を取得し、患者および外来データセットの主診断をそれぞれ予測します。
論文 参考訳(メタデータ) (2020-12-16T07:07:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。