論文の概要: Extraction of Text from Optic Nerve Optical Coherence Tomography Reports
- arxiv url: http://arxiv.org/abs/2308.10790v1
- Date: Mon, 21 Aug 2023 15:34:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 13:01:40.694453
- Title: Extraction of Text from Optic Nerve Optical Coherence Tomography Reports
- Title(参考訳): 視神経光コヒーレンス断層像からのテキスト抽出
- Authors: Iyad Majid, Youchen Victor Zhang, Robert Chang, Sophia Y. Wang
- Abstract要約: 光コヒーレンス・トモグラフィー・スキャンレポートからテキストデータの抽出を促進するためにルールベースのアルゴリズムを開発した。
開発したアルゴリズムは、RCFとGCCの両方のスキャンからデータを抽出する際の高精度さを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Purpose: The purpose of this study was to develop and evaluate rule-based
algorithms to enhance the extraction of text data, including retinal nerve
fiber layer (RNFL) values and other ganglion cell count (GCC) data, from Zeiss
Cirrus optical coherence tomography (OCT) scan reports. Methods: DICOM files
that contained encapsulated PDF reports with RNFL or Ganglion Cell in their
document titles were identified from a clinical imaging repository at a single
academic ophthalmic center. PDF reports were then converted into image files
and processed using the PaddleOCR Python package for optical character
recognition. Rule-based algorithms were designed and iteratively optimized for
improved performance in extracting RNFL and GCC data. Evaluation of the
algorithms was conducted through manual review of a set of RNFL and GCC
reports. Results: The developed algorithms demonstrated high precision in
extracting data from both RNFL and GCC scans. Precision was slightly better for
the right eye in RNFL extraction (OD: 0.9803 vs. OS: 0.9046), and for the left
eye in GCC extraction (OD: 0.9567 vs. OS: 0.9677). Some values presented more
challenges in extraction, particularly clock hours 5 and 6 for RNFL thickness,
and signal strength for GCC. Conclusions: A customized optical character
recognition algorithm can identify numeric results from optical coherence scan
reports with high precision. Automated processing of PDF reports can greatly
reduce the time to extract OCT results on a large scale.
- Abstract(参考訳): 目的: 本研究の目的は, 網膜神経線維層(RNFL)値および他のガングリオン細胞数(GCC)データを含むテキストデータのZeis Cirrus光コヒーレンストモグラフィー(OCT)スキャンレポートから抽出するルールベースのアルゴリズムを開発し, 評価することであった。
方法: RNFL または Ganglion Cell の文書に PDF レポートを封入した DICOM ファイルを1つの学術的眼科センターの 臨床画像リポジトリから同定した。
PDFレポートは画像ファイルに変換され、光学文字認識のためにPaddleOCR Pythonパッケージを使用して処理された。
ルールベースのアルゴリズムはRCFとGCCのデータ抽出の性能向上のために反復的に設計・最適化された。
アルゴリズムの評価は,RCFおよびGCCレポートのマニュアルレビューを通じて行った。
結果: RNFLおよびGCCスキャンからデータを抽出する際の高精度なアルゴリズムが得られた。
RNFL抽出の右目(OD: 0.9803 vs. OS: 0.9046)とGCC抽出の左目(OD: 0.9567 vs. OS: 0.9677)ではわずかに精度が良好であった。
いくつかの値は抽出において、特にRCF厚のクロック時間5と6、GCCの信号強度がより困難であった。
結論: カスタマイズされた光文字認識アルゴリズムは、光学コヒーレンススキャンレポートから数値結果を高精度に識別することができる。
PDF レポートの自動処理は OCT 結果を大規模に抽出する時間を大幅に短縮することができる。
関連論文リスト
- Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - WsiCaption: Multiple Instance Generation of Pathology Reports for Gigapixel Whole-Slide Images [5.960501267687475]
スライド画像全体から病理報告を生成する方法について検討する。
私たちは、最大のWSIテキストデータセット(PathText)をキュレートしました。
モデル終端では、多重インスタンス生成モデル(MI-Gen)を提案する。
論文 参考訳(メタデータ) (2023-11-27T05:05:41Z) - Detecting automatically the layout of clinical documents to enhance the
performances of downstream natural language processing [53.797797404164946]
我々は,臨床用PDF文書を処理し,臨床用テキストのみを抽出するアルゴリズムを設計した。
このアルゴリズムは、PDFを使った最初のテキスト抽出と、続いてボディテキスト、左書き、フッタなどのカテゴリに分類される。
それぞれのセクションのテキストから興味ある医学的概念を抽出し,医療的パフォーマンスを評価した。
論文 参考訳(メタデータ) (2023-05-23T08:38:33Z) - PACMAN: a framework for pulse oximeter digit detection and reading in a
low-resource setting [0.42897826548373363]
新型コロナウイルスのパンデミックを受けて、患者は毎日の酸素飽和度(SpO2)とパルスレート(PR)値を健康モニタリングシステムに手動で入力する必要がある。
光文字認識(OCR)を用いた捕獲画像からの生理的価値の検出の試み
本研究の目的は,低リソース深層学習型コンピュータビジョンを用いたPACMANという新しいフレームワークを提案することである。
論文 参考訳(メタデータ) (2022-12-09T16:22:28Z) - Deep embedded clustering algorithm for clustering PACS repositories [0.0]
我々は、ピクセルデータのみを用いた医用画像の完全教師なしクラスタリングの問題に取り組む。
私たちは3万枚の画像でモデルをトレーニングし、8000枚の画像からなる別のテストセットを使ってそれらをテストします。
論文 参考訳(メタデータ) (2022-06-24T05:57:49Z) - Image preprocessing and modified adaptive thresholding for improving OCR [0.0]
本稿では,テキスト内の画素強度を最大化し,それに応じて画像のしきい値を設定する手法を提案する。
得られた結果から,OCRの画像処理分野において,このアルゴリズムを効率的に適用できることが分かる。
論文 参考訳(メタデータ) (2021-11-28T08:13:20Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Lung Cancer Lesion Detection in Histopathology Images Using Graph-Based
Sparse PCA Network [93.22587316229954]
ヘマトキシリンとエオシン(H&E)で染色した組織学的肺スライドにおける癌病変の自動検出のためのグラフベーススパース成分分析(GS-PCA)ネットワークを提案する。
我々は,SVM K-rasG12D肺がんモデルから得られたH&Eスライダーの精度・リコール率,Fスコア,谷本係数,レシーバ演算子特性(ROC)の曲線下領域を用いて,提案アルゴリズムの性能評価を行った。
論文 参考訳(メタデータ) (2021-10-27T19:28:36Z) - Deep ensembles based on Stochastic Activation Selection for Polyp
Segmentation [82.61182037130406]
本研究は,大腸内視鏡検査における画像分割,特に正確なポリープ検出とセグメンテーションを扱う。
イメージセグメンテーションの基本アーキテクチャはエンコーダとデコーダで構成されている。
我々はデコーダのバックボーンを変更することで得られるDeepLabアーキテクチャのバリエーションを比較した。
論文 参考訳(メタデータ) (2021-04-02T02:07:37Z) - Accurate Tumor Tissue Region Detection with Accelerated Deep
Convolutional Neural Networks [12.7414209590152]
がん診断のための手動の病理診断は、退屈で反復的である。
我々のアプローチであるFLASHは、ディープ畳み込みニューラルネットワーク(DCNN)アーキテクチャに基づいている。
計算コストを削減し、一般的なディープラーニングアプローチよりも2桁の速さで高速である。
論文 参考訳(メタデータ) (2020-04-18T08:24:27Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。