論文の概要: Automated Triaging and Transfer Learning of Incident Learning Safety Reports Using Large Language Representational Models
- arxiv url: http://arxiv.org/abs/2509.13706v1
- Date: Wed, 17 Sep 2025 05:29:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.727718
- Title: Automated Triaging and Transfer Learning of Incident Learning Safety Reports Using Large Language Representational Models
- Title(参考訳): 大規模言語表現モデルを用いたインシデント学習安全レポートの自動作成と伝達学習
- Authors: Peter Beidler, Mark Nguyen, Kevin Lybarger, Ola Holmberg, Eric Ford, John Kang,
- Abstract要約: 放射線オンコロジーセンターからのインシデントレポートテキストを用いたクロスインスティテュートNLPモデルを開発した。
モデルは、キュレートされたデータセット上で、人間と同じような重大度レポートを検出できた。
- 参考スコア(独自算出の注目度): 2.2673740363742847
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: PURPOSE: Incident reports are an important tool for safety and quality improvement in healthcare, but manual review is time-consuming and requires subject matter expertise. Here we present a natural language processing (NLP) screening tool to detect high-severity incident reports in radiation oncology across two institutions. METHODS AND MATERIALS: We used two text datasets to train and evaluate our NLP models: 7,094 reports from our institution (Inst.), and 571 from IAEA SAFRON (SF), all of which had severity scores labeled by clinical content experts. We trained and evaluated two types of models: baseline support vector machines (SVM) and BlueBERT which is a large language model pretrained on PubMed abstracts and hospitalized patient data. We assessed for generalizability of our model in two ways. First, we evaluated models trained using Inst.-train on SF-test. Second, we trained a BlueBERT_TRANSFER model that was first fine-tuned on Inst.-train then on SF-train before testing on SF-test set. To further analyze model performance, we also examined a subset of 59 reports from our Inst. dataset, which were manually edited for clarity. RESULTS Classification performance on the Inst. test achieved AUROC 0.82 using SVM and 0.81 using BlueBERT. Without cross-institution transfer learning, performance on the SF test was limited to an AUROC of 0.42 using SVM and 0.56 using BlueBERT. BlueBERT_TRANSFER, which was fine-tuned on both datasets, improved the performance on SF test to AUROC 0.78. Performance of SVM, and BlueBERT_TRANSFER models on the manually curated Inst. reports (AUROC 0.85 and 0.74) was similar to human performance (AUROC 0.81). CONCLUSION: In summary, we successfully developed cross-institution NLP models on incident report text from radiation oncology centers. These models were able to detect high-severity reports similarly to humans on a curated dataset.
- Abstract(参考訳): PURPOSE: インシデントレポートは医療の安全性と品質向上のための重要なツールですが、手作業によるレビューには時間がかかり、課題の専門知識が必要です。
本稿では,2施設にわたる放射線腫瘍学における高重度インシデントレポートを検出する自然言語処理(NLP)スクリーニングツールを提案する。
方法と資料:NLPモデルをトレーニングし,評価するために2つのテキストデータセットを使用した。
そこで我々は,ベースラインサポートベクターマシン(SVM)と,PubMedの抽象化と入院患者データに基づいて事前訓練された大規模言語モデルであるBlueBERTの2種類のモデルを訓練し,評価した。
モデルの一般化性を2つの方法で評価した。
まず、Instを使ってトレーニングしたモデルを評価した。
-SFテストの列車。
次に、まずInstで微調整されたBlueBERT_TRANSFERモデルを訓練した。
-SF-テストセットでテストする前に、SF-トレインで運転する。
さらに,モデル性能を解析するために,Instからの59件のレポートのサブセットについても検討した。
データセットは 明瞭さのために手作業で編集されました
インストのRESULTS分類性能
AUROC 0.82をSVMで、0.81をBlueBERTで達成した。
クロスインスティテュート・トランスファー学習がなければ、SFテストのパフォーマンスはSVMで0.42AUROC、BlueBERTで0.56AUROCに制限された。
両方のデータセットで微調整されたBlueBERT_TRANSFERは、SFテストのパフォーマンスをAUROC 0.78に改善した。
手作業によるInstにおけるSVMとBlueBERT_TRANSFERモデルの性能評価
報告(AUROC 0.85と0.74)は人為的な性能(AUROC 0.81)と類似していた。
結論: 放射線オンコロジーセンターからのインシデントレポートテキストを用いたクロスインスティテュートNLPモデルの開発に成功した。
これらのモデルは、キュレートされたデータセット上で、人間と同じような重大度レポートを検出することができた。
関連論文リスト
- Phikon-v2, A large and public feature extractor for biomarker prediction [42.52549987351643]
我々は、DINOv2を用いて視覚変換器を訓練し、このモデルの1つのイテレーションを公開して、Phikon-v2と呼ばれるさらなる実験を行う。
Phikon-v2は、公開されている組織学のスライドをトレーニングしながら、以前リリースしたモデル(Phikon)を上回り、プロプライエタリなデータでトレーニングされた他の病理学基盤モデル(FM)と同等に動作します。
論文 参考訳(メタデータ) (2024-09-13T20:12:29Z) - Machine Learning for ALSFRS-R Score Prediction: Making Sense of the Sensor Data [44.99833362998488]
筋萎縮性側索硬化症(Amyotrophic Lateral Sclerosis、ALS)は、急速に進行する神経変性疾患である。
iDPP@CLEF 2024チャレンジを先導した今回の調査は,アプリから得られるセンサデータを活用することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-10T19:17:23Z) - A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - CXR-LLAVA: a multimodal large language model for interpreting chest
X-ray images [3.0757789554622597]
本研究の目的は,胸部X線画像(CXR)を解釈するためのオープンソースのマルチモーダル大言語モデル(CXR-LLAVA)を開発することである。
トレーニングでは,592,580個のCXRを収集し,そのうち374,881個のX線写真異常のラベルが得られた。
主な病理所見に対する診断成績と,ヒト放射線技師による放射線学的報告の受容性について検討した。
論文 参考訳(メタデータ) (2023-10-22T06:22:37Z) - Exploring the Value of Pre-trained Language Models for Clinical Named
Entity Recognition [6.917786124918387]
我々は、スクラッチからトレーニングされたTransformerモデルと、細調整されたBERTベースのLLMを比較した。
文脈学習を促進するために,追加のCRF層がそのようなモデルに与える影響を検討する。
論文 参考訳(メタデータ) (2022-10-23T16:27:31Z) - Contrastive learning-based pretraining improves representation and
transferability of diabetic retinopathy classification models [1.9882302955470608]
自己教師付きコントラスト学習に基づく事前学習により、小さなラベル付きデータセットを持つ堅牢で一般化されたディープラーニングモデルの開発が可能になる。
本研究の目的は,CLによるプレトレーニングが糖尿病網膜症 (DR) の診断成績に及ぼす影響を評価することである。
論文 参考訳(メタデータ) (2022-08-24T14:07:45Z) - BERTHop: An Effective Vision-and-Language Model for Chest X-ray Disease
Diagnosis [42.917164607812886]
ヴィジュアル・アンド・ランゲージ(V&L)モデルは、画像とテキストを入力として取り、それら間の関連を捉えることを学ぶ。
BERTHopは、PixelHop++とVisualBERTをベースとしたトランスフォーマーベースのモデルで、2つのモダリティ間の関連をよりよく捉える。
論文 参考訳(メタデータ) (2021-08-10T21:51:25Z) - Deep learning-based COVID-19 pneumonia classification using chest CT
images: model generalizability [54.86482395312936]
深層学習(DL)分類モデルは、異なる国の3DCTデータセット上で、COVID-19陽性患者を特定するために訓練された。
我々は、データセットと72%の列車、8%の検証、20%のテストデータを組み合わせたDLベースの9つの同一分類モデルを訓練した。
複数のデータセットでトレーニングされ、トレーニングに使用されるデータセットの1つからテストセットで評価されたモデルは、よりよいパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-02-18T21:14:52Z) - TACRED Revisited: A Thorough Evaluation of the TACRED Relation
Extraction Task [80.38130122127882]
TACREDはリレーショナル抽出(RE)において最も大きく、最も広く使われているクラウドソースデータセットの1つである
パフォーマンスの天井に到達したのか、改善の余地はあるのか?
ラベルエラーは絶対F1テストエラーの8%を占めており、例の50%以上を可逆化する必要がある。
論文 参考訳(メタデータ) (2020-04-30T15:07:37Z) - The Utility of General Domain Transfer Learning for Medical Language
Tasks [1.5459429010135775]
本研究の目的は,医療自然言語処理(NLP)タスクに適用したトランスファーラーニング手法とトランスフォーマーベースモデルの有効性を解析することである。
一般的なテキスト転送学習は、放射線コーパス上の医学的NLPタスクにおいて、最先端の結果を生成するための有効な技術である可能性がある。
論文 参考訳(メタデータ) (2020-02-16T20:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。