論文の概要: Deep learning-based NLP Data Pipeline for EHR Scanned Document
Information Extraction
- arxiv url: http://arxiv.org/abs/2110.11864v1
- Date: Tue, 14 Sep 2021 03:56:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 02:48:06.078491
- Title: Deep learning-based NLP Data Pipeline for EHR Scanned Document
Information Extraction
- Title(参考訳): EHRスキャンされた文書情報抽出のための深層学習に基づくNLPデータパイプライン
- Authors: Enshuo Hsu (1, 3, and 4), Ioannis Malagaris (1), Yong-Fang Kuo (1),
Rizwana Sultana (2), Kirk Roberts (3) ((1) Office of Biostatistics, (2)
Division of Pulmonary, Critical Care and Sleep Medicine, Department of
Internal Medicine, University of Texas Medical Branch, Galveston, Texas, USA.
(3) School of Biomedical Informatics, University of Texas Health Science
Center at Houston, Houston, Texas, USA. (4) Center for Outcomes Research,
Houston Methodist, Houston, TX, USA.)
- Abstract要約: 画像前処理と文書レイアウトが文書の精度に与える影響について検討した。
We performed image preprocessing and OCR using the Tesseract OCR engine。
提案手法はAUROCが0.9743、AHIが94.76%、AUROCが0.9523、SaO2が91.61%に達した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Scanned documents in electronic health records (EHR) have been a challenge
for decades, and are expected to stay in the foreseeable future. Current
approaches for processing often include image preprocessing, optical character
recognition (OCR), and text mining. However, there is limited work that
evaluates the choice of image preprocessing methods, the selection of NLP
models, and the role of document layout. The impact of each element remains
unknown. We evaluated this method on a use case of two key indicators for sleep
apnea, Apnea hypopnea index (AHI) and oxygen saturation (SaO2) values, from
scanned sleep study reports. Our data that included 955 manually annotated
reports was secondarily utilized from a previous study in the University of
Texas Medical Branch. We performed image preprocessing: gray-scaling followed
by 1 iteration of dilating and erode, and 20% contrast increasing. The OCR was
implemented with the Tesseract OCR engine. A total of seven Bag-of-Words models
(Logistic Regression, Ridge Regression, Lasso Regression, Support Vector
Machine, k-Nearest Neighbor, Na\"ive Bayes, and Random Forest) and three deep
learning-based models (BiLSTM, BERT, and Clinical BERT) were evaluated. We also
evaluated the combinations of image preprocessing methods (gray-scaling, dilate
& erode, increased contrast by 20%, increased contrast by 60%), and two deep
learning architectures (with and without structured input that provides
document layout information). Our proposed method using Clinical BERT reached
an AUROC of 0.9743 and document accuracy of 94.76% for AHI, and an AUROC of
0.9523, and document accuracy of 91.61% for SaO2. We demonstrated the proper
use of image preprocessing and document layout could be beneficial to scanned
document processing.
- Abstract(参考訳): 電子健康記録(EHR)のスキャンされた文書は、何十年にもわたって課題であり、当面は継続することが期待される。
現在の処理手法には、画像前処理、光学文字認識(OCR)、テキストマイニングなどがある。
しかし、画像前処理方法の選択、NLPモデルの選択、文書レイアウトの役割を評価する作業は限られている。
それぞれの要素の影響は不明である。
睡眠時無呼吸,無呼吸低呼吸指数 (AHI) と酸素飽和度 (SaO2) の2つの指標を走査型睡眠調査報告から検討した。
前回のテキサス大学医学部での研究では,手動で注記した955件のデータを利用した。
画像プリプロセッシングを行い, グレースケーリングを行い, ディレイティングとerodeを1回繰り返し, コントラストを20%増加させた。
OCRはテッセラクト OCRエンジンで実装された。
合計7つの単語モデル(ロジスティック回帰、リッジ回帰、ラッソ回帰、サポートベクトルマシン、k-Nearest Neighbor、Na\"ive Bayes、ランダムフォレスト)と3つのディープラーニングベースモデル(BiLSTM、BERT、クリニカルBERT)を評価した。
また,画像前処理手法(gray-scaling, dilate, erode, increased contrast by20%, increased contrast by 60%)と2つのディープラーニングアーキテクチャ(ドキュメントレイアウト情報を提供する構造化入力の有無)の組み合わせを評価した。
提案手法はAUROCが0.9743,AHIが94.76%,AUROCが0.9523,SaO2が91.61%であった。
画像の前処理と文書レイアウトの適切な利用が,文書処理のスキャンに有用であることを実証した。
関連論文リスト
- High-Throughput Phenotyping using Computer Vision and Machine Learning [0.0]
我々はオークリッジ国立研究所が提供した1,672枚のPopulus Trichocarpaの画像と白ラベルで治療を行った。
光文字認識(OCR)は、植物上でこれらのラベルを読むために用いられた。
機械学習モデルを用いて,これらの分類に基づいて処理を予測し,解析されたEXIFタグを用いて葉の大きさと表現型間の相関を見いだした。
論文 参考訳(メタデータ) (2024-07-08T19:46:31Z) - A Robust Pipeline for Classification and Detection of Bleeding Frames in Wireless Capsule Endoscopy using Swin Transformer and RT-DETR [1.7499351967216343]
Swin Transformerは、出血フレームの初期分類と、出血のさらなる検出のためのRT-DETRを組み合わせたソリューションである。
検証セットでは、前処理なしで98.5%の分類精度を91.7%と比較する。
テストセットでは、それぞれ87.0%と89.0%の分類精度とF1スコアを達成する。
論文 参考訳(メタデータ) (2024-06-12T09:58:42Z) - COVID-19 Detection Using Slices Processing Techniques and a Modified
Xception Classifier from Computed Tomography Images [0.0]
本稿では,CT画像からCOVID-19を検出する方法を提案する。
モデル誤分類を減らすために、画像処理の2つの重要なステップが採用された。
Xceptionのアーキテクチャと事前訓練された重み付けにより、修正されたモデルはバイナリ分類を達成した。
論文 参考訳(メタデータ) (2023-12-10T19:12:36Z) - Detecting automatically the layout of clinical documents to enhance the
performances of downstream natural language processing [53.797797404164946]
我々は,臨床用PDF文書を処理し,臨床用テキストのみを抽出するアルゴリズムを設計した。
このアルゴリズムは、PDFを使った最初のテキスト抽出と、続いてボディテキスト、左書き、フッタなどのカテゴリに分類される。
それぞれのセクションのテキストから興味ある医学的概念を抽出し,医療的パフォーマンスを評価した。
論文 参考訳(メタデータ) (2023-05-23T08:38:33Z) - MAPPING: Model Average with Post-processing for Stroke Lesion
Segmentation [57.336056469276585]
我々は nnU-Net フレームワークに基づく脳卒中病変のセグメンテーションモデルを提案し, ストローク後の解剖学的トレースに応用する。
本手法は,2022年のMICCAI ATLAS Challengeにおいて,平均Diceスコアが0.6667,Lesion-wise F1スコアが0.5643,Simple Lesion Countスコアが4.5367,Volume differenceスコアが8804.9102であった。
論文 参考訳(メタデータ) (2022-11-11T14:17:04Z) - Pattern Spotting and Image Retrieval in Historical Documents using Deep
Hashing [60.67014034968582]
本稿では,歴史文書のデジタルコレクションにおける画像検索とパターンスポッティングのためのディープラーニング手法を提案する。
ディープラーニングモデルは、実数値またはバイナリコード表現を提供する2つの異なるバリエーションを考慮して、特徴抽出に使用される。
また,提案手法により検索時間を最大200倍に短縮し,関連する作業と比較してストレージコストを最大6,000倍に削減する。
論文 参考訳(メタデータ) (2022-08-04T01:39:37Z) - DiT: Self-supervised Pre-training for Document Image Transformer [85.78807512344463]
自己教師付き文書画像変換モデルであるDiTを提案する。
さまざまなビジョンベースのDocument AIタスクでは,バックボーンネットワークとしてDiTを活用しています。
実験結果から, 自己教師付き事前訓練型DiTモデルにより, 新たな最先端結果が得られることが示された。
論文 参考訳(メタデータ) (2022-03-04T15:34:46Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Coronary Artery Segmentation from Intravascular Optical Coherence
Tomography Using Deep Capsules [0.0]
血管内光コヒーレンストモグラフィーによる冠動脈の分画と解析は,冠動脈疾患の診断と管理の重要な側面である。
現在の画像処理手法は、専門家ラベル付きデータセットを生成するのに必要な時間と、分析中のバイアスの可能性によって妨げられている。
セグメンテーションの品質を犠牲にすることなく、推論時に高速なメモリフットプリントのモデルを開発する。
私たちは、私たちの開発が12%のパラメータを使用しながら、セグメンテーション品質とロバストネスの観点から最先端の機械学習手法と同等のモデルであるDeepCapにつながっていることを示しています。
論文 参考訳(メタデータ) (2020-03-13T01:37:45Z) - CNN-CASS: CNN for Classification of Coronary Artery Stenosis Score in
MPR Images [0.0]
MPR画像における狭窄の重症度を同定する自動モデルを開発した。
このモデルは3つのクラスのうちの1つを予測している: 正常の'no stenosis'、検出された'non-significant' - 1-50%の狭窄、'significant' - 50%以上の狭窄。
狭窄スコア分類では, 従来の検査結果と比較して, 80%の精度で精度が向上した。
論文 参考訳(メタデータ) (2020-01-23T15:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。