論文の概要: A Cross-institutional Evaluation on Breast Cancer Phenotyping NLP
Algorithms on Electronic Health Records
- arxiv url: http://arxiv.org/abs/2303.08448v1
- Date: Wed, 15 Mar 2023 08:44:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 14:30:01.802588
- Title: A Cross-institutional Evaluation on Breast Cancer Phenotyping NLP
Algorithms on Electronic Health Records
- Title(参考訳): 電子健康記録を用いた乳癌表現型nlpアルゴリズムの組織間比較評価
- Authors: Sicheng Zhou, Nan Wang, Liwei Wang, Ju Sun, Anne Blaes, Hongfang Liu,
Rui Zhang
- Abstract要約: 臨床テキストから癌表現型を抽出する3種類のNLPモデルを開発した。
モデルは、異なる学習戦略を持つ異なるテストセット上での一般化可能性について評価した。
CancerBERTモデルは、ある機関で開発され、別の機関でさらに微調整され、合理的な性能を達成した。
- 参考スコア(独自算出の注目度): 19.824923994227202
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objective: The generalizability of clinical large language models is usually
ignored during the model development process. This study evaluated the
generalizability of BERT-based clinical NLP models across different clinical
settings through a breast cancer phenotype extraction task.
Materials and Methods: Two clinical corpora of breast cancer patients were
collected from the electronic health records from the University of Minnesota
and the Mayo Clinic, and annotated following the same guideline. We developed
three types of NLP models (i.e., conditional random field, bi-directional long
short-term memory and CancerBERT) to extract cancer phenotypes from clinical
texts. The models were evaluated for their generalizability on different test
sets with different learning strategies (model transfer vs. locally trained).
The entity coverage score was assessed with their association with the model
performances.
Results: We manually annotated 200 and 161 clinical documents at UMN and MC,
respectively. The corpora of the two institutes were found to have higher
similarity between the target entities than the overall corpora. The CancerBERT
models obtained the best performances among the independent test sets from two
clinical institutes and the permutation test set. The CancerBERT model
developed in one institute and further fine-tuned in another institute achieved
reasonable performance compared to the model developed on local data (micro-F1:
0.925 vs 0.932).
Conclusions: The results indicate the CancerBERT model has the best learning
ability and generalizability among the three types of clinical NLP models. The
generalizability of the models was found to be correlated with the similarity
of the target entities between the corpora.
- Abstract(参考訳): 目的: 臨床大言語モデルの一般化可能性は通常、モデル開発プロセス中に無視される。
本研究は, 乳がん表現型抽出タスクを通して, bertベースの臨床nlpモデルの一般化可能性について検討した。
資料と方法:ミネソタ大学とマヨクリニックの電子健康記録から2名の乳癌患者の臨床コーパスを採取し,同じガイドラインに従って注釈を付した。
臨床用テキストから癌表現型を抽出する3種類のNLPモデル(条件付ランダムフィールド,双方向長期記憶,CancerBERT)を開発した。
モデルは、異なる学習戦略(モデル転送対局所訓練)で異なるテストセット上での一般化性について評価した。
エンティティカバレッジスコアは,モデルパフォーマンスとの関連で評価された。
結果: UMN と MC では, 200 と 161 の臨床文献を手動で注釈した。
両施設のコーパスは, 全体コーパスよりも, 対象エンティティ間の類似性が高いことがわかった。
CancerBERTモデルは、2つの臨床機関と置換テストセットから独立したテストセットの中で最高のパフォーマンスを得た。
ある研究所で開発され、別の研究所でさらに微調整されたガンベルトモデルは、ローカルデータで開発されたモデルと比較して妥当な性能を達成した(micro-f1: 0.925 vs 0.932)。
結論: 結果は, 癌モデルが3種類の臨床nlpモデルの中で, 最高の学習能力と一般化性を示す。
モデルの一般化性はコーパス間の対象エンティティの類似度と相関することが判明した。
関連論文リスト
- A Clinical Benchmark of Public Self-Supervised Pathology Foundation Models [2.124312824026935]
本研究は, がん診断を含む臨床関連エンドポイントと, 2つの医療センターからの標準病院手術中に発生する各種バイオマーカーとを関連づけた臨床スライドを含む病理データセットの収集について述べる。
これらのデータセットを利用して、公共病理基盤モデルの性能を体系的に評価し、新しい基礎モデルをトレーニングし、適切な事前学習モデルを選択するためのベストプラクティスに関する洞察を提供する。
論文 参考訳(メタデータ) (2024-07-09T02:33:13Z) - RaTEScore: A Metric for Radiology Report Generation [59.37561810438641]
本稿では,Radiological Report (Text) Evaluation (RaTEScore) として,新しい実体認識尺度を提案する。
RaTEScoreは、診断結果や解剖学的詳細などの重要な医療機関を強調し、複雑な医学的同義語に対して堅牢であり、否定表現に敏感である。
我々の評価は、RaTEScoreが既存の指標よりも人間の嗜好とより密接に一致していることを示し、確立された公開ベンチマークと、新たに提案したRaTE-Evalベンチマークの両方で検証した。
論文 参考訳(メタデータ) (2024-06-24T17:49:28Z) - A Transformer-based representation-learning model with unified
processing of multimodal input for clinical diagnostics [63.106382317917344]
本稿では,マルチモーダル入力を統一的に処理する臨床診断支援として,トランスフォーマーを用いた表現学習モデルについて報告する。
統一モデルは, 肺疾患の同定において, 画像のみのモデル, 非統一型マルチモーダル診断モデルより優れていた。
論文 参考訳(メタデータ) (2023-06-01T16:23:47Z) - Negation detection in Dutch clinical texts: an evaluation of rule-based
and machine learning methods [0.21079694661943607]
オランダ臨床ノートにおける否定検出の3つの方法の比較を行った。
その結果,biLSTMモデルとRoBERTaモデルはF1スコア,精度,リコールという点で,ルールベースモデルよりも一貫して優れていた。
論文 参考訳(メタデータ) (2022-09-01T14:00:13Z) - Advancing COVID-19 Diagnosis with Privacy-Preserving Collaboration in
Artificial Intelligence [79.038671794961]
我々はUCADI(Unified CT-COVID AI Diagnostic Initiative)を立ち上げ、各ホスト機関でAIモデルを分散的にトレーニングし、独立して実行することができる。
本研究は,中国とイギリスに所在する23の病院で採取した3,336例の胸部CT9,573例について検討した。
論文 参考訳(メタデータ) (2021-11-18T00:43:41Z) - Clinical Relation Extraction Using Transformer-based Models [28.237302721228435]
我々は,BERT,RoBERTa,XLNetという3つのトランスフォーマーアーキテクチャに基づいた臨床REモデルを開発した。
我々は、RoBERTa-clinical REモデルが2018 MADE1.0データセットにおいて、F1スコア0.8958で最高のパフォーマンスを達成したことを実証した。
以上より, 臨床関係抽出における二分分類法は多クラス分類法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2021-07-19T15:15:51Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z) - Quantification of BERT Diagnosis Generalizability Across Medical
Specialties Using Semantic Dataset Distance [0.0]
医療におけるディープラーニングモデルは、目に見えないコーパスのデータに基づいて一般化できない可能性がある。
新しいデータで既存のモデルがどのように機能するかを示す指標は存在しない。
新しいコーパスのモデル性能は、列車と試験文の類似性に直接相関する。
論文 参考訳(メタデータ) (2020-08-14T23:44:11Z) - Detecting ulcerative colitis from colon samples using efficient feature
selection and machine learning [1.5484595752241122]
潰瘍性大腸炎 (UC) は大腸粘膜層の炎症を特徴とする炎症性腸疾患(IBD)の1つである。
大腸サンプル中の32遺伝子の発現値に基づいて,健常者とUC患者を識別するモデルを構築した。
本モデルでは,全活動例を完全検出し,非活動例の平均精度は0.62であった。
論文 参考訳(メタデータ) (2020-08-04T14:56:45Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。