論文の概要: Ensemble BERT for Medication Event Classification on Electronic Health Records (EHRs)
- arxiv url: http://arxiv.org/abs/2506.23315v1
- Date: Sun, 29 Jun 2025 16:17:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.825857
- Title: Ensemble BERT for Medication Event Classification on Electronic Health Records (EHRs)
- Title(参考訳): 電子健康記録(EHRs)における医療イベント分類のためのエンサンブルBERT
- Authors: Shouvon Sarker, Xishuang Dong, Lijun Qian,
- Abstract要約: n2c2 2022は、電子健康記録(EHR)における臨床データ分析のための自然言語処理の課題に関する共通のタスクを提供した。
本研究は,新規なBERTアンサンブルモデルの構築を通じて,臨床ノートから薬物イベントを検出し,分類することを目的としたトラック1のサブタスク2に焦点を当てた。
まず、ウィキペディアやMIMICなどのさまざまなビッグデータ上でBERTモデルを事前トレーニングし、その後、これらの事前トレーニングされたBERTモデルはCMEDトレーニングデータに基づいて微調整された。
BERTをベースとしたアンサンブルモデルでは, 厳密なMicro-Fスコアを約5%改善できることを示した。
- 参考スコア(独自算出の注目度): 1.5211498825393837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Identification of key variables such as medications, diseases, relations from health records and clinical notes has a wide range of applications in the clinical domain. n2c2 2022 provided shared tasks on challenges in natural language processing for clinical data analytics on electronic health records (EHR), where it built a comprehensive annotated clinical data Contextualized Medication Event Dataset (CMED). This study focuses on subtask 2 in Track 1 of this challenge that is to detect and classify medication events from clinical notes through building a novel BERT-based ensemble model. It started with pretraining BERT models on different types of big data such as Wikipedia and MIMIC. Afterwards, these pretrained BERT models were fine-tuned on CMED training data. These fine-tuned BERT models were employed to accomplish medication event classification on CMED testing data with multiple predictions. These multiple predictions generated by these fine-tuned BERT models were integrated to build final prediction with voting strategies. Experimental results demonstrated that BERT-based ensemble models can effectively improve strict Micro-F score by about 5% and strict Macro-F score by about 6%, respectively.
- Abstract(参考訳): 医学、疾患、健康記録、臨床ノートなどの重要な変数の同定は、臨床領域において幅広い応用がある。
n2c2 2022は、電子健康記録(EHR)上の臨床データ分析のための自然言語処理の課題に関する共通のタスクを提供し、包括的な注釈付き臨床データ Contextualized Medication Event Dataset(CMED)を構築した。
本研究は,新規なBERTアンサンブルモデルの構築を通じて,臨床ノートから薬物イベントを検出し,分類することを目的としたトラック1のサブタスク2に焦点を当てた。
それはまず、WikipediaやMIMICなど、さまざまなタイプのビッグデータ上でBERTモデルを事前訓練することから始まった。
その後、これらの事前訓練されたBERTモデルはCMEDトレーニングデータに基づいて微調整された。
これらの細調整されたBERTモデルは、CMEDテストデータに基づく薬物事象分類を複数の予測で達成するために用いられた。
これらの細調整されたBERTモデルによって生成されたこれらの複数の予測は、投票戦略による最終的な予測を構築するために統合された。
実験の結果,BERTをベースとしたアンサンブルモデルでは,厳密なMicro-Fスコアを約5%,厳密なMacro-Fスコアを約6%改善できることがわかった。
関連論文リスト
- Improving Extraction of Clinical Event Contextual Properties from Electronic Health Records: A Comparative Study [2.0884301753594334]
本研究は,医学テキスト分類のための様々な自然言語モデルの比較分析を行う。
BERTはBi-LSTMモデルを最大28%、ベースラインのBERTモデルを最大16%上回り、マイノリティクラスをリコールする。
論文 参考訳(メタデータ) (2024-08-30T10:28:49Z) - FEDMEKI: A Benchmark for Scaling Medical Foundation Models via Federated Knowledge Injection [83.54960238236548]
FEDMEKIはデータのプライバシーを守るだけでなく、医療基盤モデルの能力を高める。
FEDMEKIは、医療ファンデーションモデルに対して、直接データを公開することなく、幅広い医療知識から学ぶことを可能にする。
論文 参考訳(メタデータ) (2024-08-17T15:18:56Z) - MEDFuse: Multimodal EHR Data Fusion with Masked Lab-Test Modeling and Large Language Models [11.798375238713488]
MEDFuseは構造化および非構造化の医療データを統合するフレームワークである。
10種類のマルチラベル分類タスクにおいて、90%以上のF1スコアを達成している。
論文 参考訳(メタデータ) (2024-07-17T04:17:09Z) - Bio+Clinical BERT, BERT Base, and CNN Performance Comparison for
Predicting Drug-Review Satisfaction [0.0]
我々は、BERTベースモデル、Bio+Clinical BERT、シンプルなCNNなど、いくつかの分類モデルを実装し、評価する。
以上の結果から,医療領域固有のBio+Clinical BERTモデルは,一般ドメインベースBERTモデルよりも有意に優れていた。
将来の研究は、各モデルの具体的な強みをどのように活用するかを探るかもしれない。
論文 参考訳(メタデータ) (2023-08-02T20:01:38Z) - Medical Data Augmentation via ChatGPT: A Case Study on Medication
Identification and Medication Event Classification [2.980018103007841]
2022年のN2C2コンクールでは、電子健康記録の重要な要因の特定を促進するために様々なタスクが提示された。
事前訓練された大規模言語モデル (LLM) はこれらのタスクにおいて例外的な性能を示した。
本研究の目的は、注釈付きデータの限られた可用性を克服するために、データ拡張のためのLCM(特にChatGPT)の利用を検討することである。
論文 参考訳(メタデータ) (2023-06-10T20:55:21Z) - Unsupervised pre-training of graph transformers on patient population
graphs [48.02011627390706]
異種臨床データを扱うグラフ変換器を用いたネットワークを提案する。
自己教師型, 移動学習環境において, 事前学習方式の利点を示す。
論文 参考訳(メタデータ) (2022-07-21T16:59:09Z) - Does BERT Pretrained on Clinical Notes Reveal Sensitive Data? [70.3631443249802]
我々は、トレーニングされたBERTからPersonal Health Informationを復元するためのアプローチのバッテリーを設計する。
具体的には,患者の名前と関連した状態の回復を試みている。
簡単な探索法では,MIMIC-IIIコーパス上で訓練されたBERTから機密情報を有意に抽出できないことがわかった。
論文 参考訳(メタデータ) (2021-04-15T20:40:05Z) - An Interpretable End-to-end Fine-tuning Approach for Long Clinical Text [72.62848911347466]
EHRにおける非構造化臨床テキストには、意思決定支援、トライアルマッチング、振り返り研究を含むアプリケーションにとって重要な情報が含まれている。
最近の研究は、これらのモデルが他のNLPドメインにおける最先端の性能を考慮し、BERTベースのモデルを臨床情報抽出およびテキスト分類に応用している。
本稿では,SnipBERTという新しい微調整手法を提案する。SnipBERTは全音符を使用する代わりに,重要なスニペットを識別し,階層的に切り刻まれたBERTベースのモデルに供給する。
論文 参考訳(メタデータ) (2020-11-12T17:14:32Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。