論文の概要: Multi-label natural language processing to identify diagnosis and
procedure codes from MIMIC-III inpatient notes
- arxiv url: http://arxiv.org/abs/2003.07507v1
- Date: Tue, 17 Mar 2020 02:56:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 21:12:36.229193
- Title: Multi-label natural language processing to identify diagnosis and
procedure codes from MIMIC-III inpatient notes
- Title(参考訳): マルチラベル自然言語処理によるMIMIC-III患者ノートからの診断・手順コード同定
- Authors: A.K. Bhavani Singh, Mounika Guntu, Ananth Reddy Bhimireddy, Judy W.
Gichoya, Saptarshi Purkayastha
- Abstract要約: 米国では、医療用コードや請求書を含む管理費として、病院支出の25%以上を計上している。
自然言語処理は、構造化されていない臨床ノートからコードやラベルの抽出を自動化することができる。
我々のモデルは、87.08%、F1スコア85.82%、AUC91.76%をトップ10コードで達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the United States, 25% or greater than 200 billion dollars of hospital
spending accounts for administrative costs that involve services for medical
coding and billing. With the increasing number of patient records, manual
assignment of the codes performed is overwhelming, time-consuming and
error-prone, causing billing errors. Natural language processing can automate
the extraction of codes/labels from unstructured clinical notes, which can aid
human coders to save time, increase productivity, and verify medical coding
errors. Our objective is to identify appropriate diagnosis and procedure codes
from clinical notes by performing multi-label classification. We used
de-identified data of critical care patients from the MIMIC-III database and
subset the data to select the ten (top-10) and fifty (top-50) most common
diagnoses and procedures, which covers 47.45% and 74.12% of all admissions
respectively. We implemented state-of-the-art Bidirectional Encoder
Representations from Transformers (BERT) to fine-tune the language model on 80%
of the data and validated on the remaining 20%. The model achieved an overall
accuracy of 87.08%, an F1 score of 85.82%, and an AUC of 91.76% for top-10
codes. For the top-50 codes, our model achieved an overall accuracy of 93.76%,
an F1 score of 92.24%, and AUC of 91%. When compared to previously published
research, our model outperforms in predicting codes from the clinical text. We
discuss approaches to generalize the knowledge discovery process of our
MIMIC-BERT to other clinical notes. This can help human coders to save time,
prevent backlogs, and additional costs due to coding errors.
- Abstract(参考訳): 米国では、医療用コードや請求書のサービスを含む管理コストに対して、病院支出の25%または200億ドル以上が費やされている。
患者の記録数が増えるにつれて、実行されたコードの手作業による割り当てが圧倒的になり、時間がかかり、エラーが発生しやすい。
自然言語処理は、非構造化臨床ノートからのコード/ラベルの抽出を自動化し、人間のコーダが時間の節約、生産性の向上、医学的コーディングエラーの検証を可能にする。
本研究の目的は,マルチラベル分類を行い,臨床ノートから適切な診断・処置コードを特定することである。
MIMIC-IIIデータベースから要介護患者の非特定データを用いて,全入院患者の47.45%,74.12%を対象とする10例(トップ10)と50例(トップ50)を選択した。
変換器 (BERT) による最先端の双方向エンコーダ表現を実装し, 80%のデータで言語モデルを微調整し, 残りの20%で検証した。
全体の精度は87.08%、f1スコアは85.82%、aucはトップ10コードで91.76%であった。
トップ50のコードでは、モデル全体の精度は93.76%、f1スコアは92.24%、aucは91%であった。
従来の研究と比較すると,本モデルは臨床テキストからコードを予測するのに優れている。
我々はMIMIC-BERTの知識発見プロセスを他の臨床ノートに一般化するためのアプローチについて議論する。
これにより、ヒューマンコーダは時間の節約、バックログの防止、コーディングエラーによる追加コストの削減に役立ちます。
関連論文リスト
- GMAI-MMBench: A Comprehensive Multimodal Evaluation Benchmark Towards General Medical AI [67.09501109871351]
LVLM(Large Vision-Language Model)は、画像、テキスト、生理学的信号などの多様なデータタイプを扱うことができる。
GMAI-MMBenchは、よく分類されたデータ構造と、これまででもっとも包括的な一般医療用AIベンチマークである。
38の医療画像モダリティ、18の臨床関連タスク、18の部門、視覚質問回答(VQA)フォーマットの4つの知覚的粒度からなる284のデータセットで構成されている。
論文 参考訳(メタデータ) (2024-08-06T17:59:21Z) - MedAlign: A Clinician-Generated Dataset for Instruction Following with
Electronic Medical Records [60.35217378132709]
大型言語モデル(LLM)は、人間レベルの流布で自然言語の指示に従うことができる。
医療のための現実的なテキスト生成タスクにおけるLCMの評価は依然として困難である。
我々は、EHRデータのための983の自然言語命令のベンチマークデータセットであるMedAlignを紹介する。
論文 参考訳(メタデータ) (2023-08-27T12:24:39Z) - Autoencoder-based prediction of ICU clinical codes [0.0]
我々は、MIMIC-IIIデータセットを用いて、臨床コードを補完するタスクを推薦問題として設定する。
様々なオートエンコーダアプローチと2つの強いベースライン、項目共起と特異値分解を考察する。
不完全なコードリストに加えて、臨床変数を使用することで、モデルの予測性能が向上する。
論文 参考訳(メタデータ) (2023-05-08T18:56:37Z) - Automated Medical Coding on MIMIC-III and MIMIC-IV: A Critical Review
and Replicability Study [60.56194508762205]
我々は、最先端の医療自動化機械学習モデルを再現し、比較し、分析する。
その結果, 弱い構成, サンプル化の不十分さ, 評価の不十分さなどにより, いくつかのモデルの性能が低下していることが判明した。
再生モデルを用いたMIMIC-IVデータセットの総合評価を行った。
論文 参考訳(メタデータ) (2023-04-21T11:54:44Z) - Active learning for medical code assignment [55.99831806138029]
臨床領域における多ラベルテキスト分類におけるアクティブラーニング(AL)の有効性を示す。
MIMIC-IIIデータセットにICD-9コードを自動的に割り当てるために、よく知られたALメソッドのセットを適用します。
その結果、有益なインスタンスの選択は、大幅に減少したトレーニングセットで満足のいく分類を提供する。
論文 参考訳(メタデータ) (2021-04-12T18:11:17Z) - TransICD: Transformer Based Code-wise Attention Model for Explainable
ICD Coding [5.273190477622007]
国際疾患分類法 (ICD) は, 医療分野の請求システムにおいて有効かつ重要であることが示されている。
現在、ICDコードは手動で臨床メモに割り当てられており、多くのエラーを引き起こす可能性がある。
本稿では,文書のトークン間の相互依存を捉えるためにトランスフォーマーベースのアーキテクチャを適用し,コードワイド・アテンション・メカニズムを用いて文書全体のコード固有表現を学習する。
論文 参考訳(メタデータ) (2021-03-28T05:34:32Z) - Collaborative residual learners for automatic icd10 prediction using
prescribed medications [45.82374977939355]
本稿では,処方用データのみを用いたicd10符号の自動予測のための協調残差学習モデルを提案する。
平均精度0.71および0.57のマルチラベル分類精度、F1スコア0.57および0.38の0.73および0.44の精度を取得し、患者および外来データセットの主診断をそれぞれ予測します。
論文 参考訳(メタデータ) (2020-12-16T07:07:27Z) - Ensemble model for pre-discharge icd10 coding prediction [45.82374977939355]
正確なコード予測のための複数の臨床データソースを組み込んだアンサンブルモデルを提案する。
平均精度は0.73および0.58、F1スコアは0.56および0.35、患者および外来データセットの主診断予測では0.71および0.4のマルチラベル分類精度を得る。
論文 参考訳(メタデータ) (2020-12-16T07:02:56Z) - Natural language processing of MIMIC-III clinical notes for identifying
diagnosis and procedures with neural networks [0.0]
臨床ノートを医療コードにマッピングできる自然言語処理モデルの性能について報告する。
当科では, 最多の救急部臨床ノートデータセットMIMIC IIIに最先端の深層学習法UMMFiTを適用した。
我々のモデルは80.3%と80.5%の精度で上位10の診断と手順を予測できたが、上位50のICD-9符号は70.7%と63.9%の精度で予測された。
論文 参考訳(メタデータ) (2019-12-28T04:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。