論文の概要: Assessing mortality prediction through different representation models
based on concepts extracted from clinical notes
- arxiv url: http://arxiv.org/abs/2207.10872v1
- Date: Fri, 22 Jul 2022 04:34:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-25 12:43:33.467602
- Title: Assessing mortality prediction through different representation models
based on concepts extracted from clinical notes
- Title(参考訳): 臨床ノートから抽出した概念に基づく異なる表現モデルによる死亡予測
- Authors: Hoda Memarzadeh, Nasser Ghadiri, Maryam Lotfi Shahreza
- Abstract要約: 埋め込みの学習は、音符をそれに匹敵する形式に変換する方法である。
トランスフォーマーベースの表現モデルは、最近大きな飛躍を遂げた。
病院死亡予測の課題において,学習した埋め込みベクターの有用性を評価する実験を行った。
- 参考スコア(独自算出の注目度): 2.707154152696381
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent years have seen particular interest in using electronic medical
records (EMRs) for secondary purposes to enhance the quality and safety of
healthcare delivery. EMRs tend to contain large amounts of valuable clinical
notes. Learning of embedding is a method for converting notes into a format
that makes them comparable. Transformer-based representation models have
recently made a great leap forward. These models are pre-trained on large
online datasets to understand natural language texts effectively. The quality
of a learning embedding is influenced by how clinical notes are used as input
to representation models. A clinical note has several sections with different
levels of information value. It is also common for healthcare providers to use
different expressions for the same concept. Existing methods use clinical notes
directly or with an initial preprocessing as input to representation models.
However, to learn a good embedding, we identified the most essential clinical
notes section. We then mapped the extracted concepts from selected sections to
the standard names in the Unified Medical Language System (UMLS). We used the
standard phrases corresponding to the unique concepts as input for clinical
models. We performed experiments to measure the usefulness of the learned
embedding vectors in the task of hospital mortality prediction on a subset of
the publicly available Medical Information Mart for Intensive Care (MIMIC-III)
dataset. According to the experiments, clinical transformer-based
representation models produced better results with getting input generated by
standard names of extracted unique concepts compared to other input formats.
The best-performing models were BioBERT, PubMedBERT, and UmlsBERT,
respectively.
- Abstract(参考訳): 近年、医療提供の質と安全性を高めるために電子医療記録(EMR)の使用に特に関心が寄せられている。
EMRは大量の臨床記録を含む傾向にある。
埋め込みの学習は、音符をそれに匹敵する形式に変換する方法である。
トランスフォーマーベースの表現モデルは、最近大きな飛躍を遂げた。
これらのモデルは、自然言語テキストを効果的に理解するために、大規模なオンラインデータセットで事前学習される。
学習の埋め込みの質は、臨床ノートを表現モデルへの入力として使う方法に影響される。
臨床ノートには、異なるレベルの情報値を持ついくつかのセクションがある。
医療提供者が同じ概念に異なる表現を使用することも一般的である。
既存の方法は、臨床メモを直接または初期前処理で表現モデルに入力する。
しかし,適切な埋め込みを学習するためには,最も本質的な臨床ノートセクションを同定した。
次に,選択されたセクションから抽出した概念をUMLS(Unified Medical Language System)の標準名にマッピングした。
臨床モデルのインプットとして,ユニークな概念に対応する標準句を用いた。
医療用医療情報マート(MIMIC-III)データセットのサブセットを用いて,病院死亡予測作業における学習した埋め込みベクトルの有用性を評価する実験を行った。
実験によると, 臨床変換器を用いた表現モデルでは, 他の入力形式と比較して, 抽出されたユニークな概念の標準名から入力が生成される。
ベストパフォーマンスモデルはそれぞれBioBERT、PubMedBERT、UmlsBERTである。
関連論文リスト
- SNOBERT: A Benchmark for clinical notes entity linking in the SNOMED CT clinical terminology [43.89160296332471]
本稿では,BERT モデルを用いた SNOMED CT のテキストスパンと特定の概念をリンクする手法を提案する。
本手法は, 候補選択と候補マッチングの2段階からなる。これらのモデルは, ラベル付き臨床ノートの公開データセットの中で, 最大規模で訓練された。
論文 参考訳(メタデータ) (2024-05-25T08:00:44Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - Investigating Alternative Feature Extraction Pipelines For Clinical Note
Phenotyping [0.0]
医療属性の抽出に計算システムを用いると、多くの応用が期待できる。
BERTベースのモデルは、臨床ノートを一連の表現に変換するために使用することができる。
そこで本研究では,ScispaCyNeumannを用いた代替パイプラインを提案する。
論文 参考訳(メタデータ) (2023-10-05T02:51:51Z) - Making the Most Out of the Limited Context Length: Predictive Power
Varies with Clinical Note Type and Note Section [70.37720062263176]
本研究では,高い予測力で区間を解析する枠組みを提案する。
MIMIC-IIIを用いて,(1)看護用音符と退院用音符とでは予測電力分布が異なること,(2)文脈長が大きい場合の音符の組み合わせにより性能が向上することが示唆された。
論文 参考訳(メタデータ) (2023-07-13T20:04:05Z) - Hierarchical Pretraining for Biomedical Term Embeddings [4.69793648771741]
階層データに基づく新しいバイオメディカル用語表現モデルであるHiPrBERTを提案する。
HiPrBERTは階層的な情報からペアワイズ距離を効果的に学習し,さらにバイオメディカルな応用に極めて有用な埋め込みを実現できることを示す。
論文 参考訳(メタデータ) (2023-07-01T08:16:00Z) - Applying unsupervised keyphrase methods on concepts extracted from
discharge sheets [7.102620843620572]
各内容が記録されている部分を特定し、また、臨床テキストから意味を抽出するための重要な概念を特定する必要がある。
本研究では,臨床自然言語処理技術を用いて,これらの課題に対処した。
一般的な教師なしキーフレーズ抽出手法が検証され,評価されている。
論文 参考訳(メタデータ) (2023-03-15T20:55:25Z) - Cross-Lingual Knowledge Transfer for Clinical Phenotyping [55.92262310716537]
本稿では,英語を使わないクリニックに対して,このタスクを実行するための言語間知識伝達戦略について検討する。
ギリシャ語とスペイン語のクリニックに対して,異なる臨床領域のクリニカルノートを活用して,これらの戦略を評価する。
以上の結果から,多言語データを用いることで,臨床表現型モデルが改善され,データの疎度を補うことが可能であることが示唆された。
論文 参考訳(メタデータ) (2022-08-03T08:33:21Z) - Towards more patient friendly clinical notes through language models and
ontologies [57.51898902864543]
本稿では,単語の単純化と言語モデリングに基づく医療用テキストの自動作成手法を提案する。
我々は,公開医療文のデータセットペアと,臨床医による簡易化版を用いている。
本手法は,医学フォーラムデータに基づく言語モデルを用いて,文法と本来の意味の両方を保存しながら,より単純な文を生成する。
論文 参考訳(メタデータ) (2021-12-23T16:11:19Z) - Does the Magic of BERT Apply to Medical Code Assignment? A Quantitative
Study [2.871614744079523]
事前訓練されたモデルが、さらなるアーキテクチャエンジニアリングなしで医療コード予測に有用かどうかは明らかではない。
本稿では,単語間のインタラクションをキャプチャし,ラベル情報を活用する階層的な微調整アーキテクチャを提案する。
現在の傾向とは対照的に、我々は慎重に訓練された古典的なCNNは、頻繁なコードでMIMIC-IIIサブセット上の注意ベースのモデルを上回ることを実証します。
論文 参考訳(メタデータ) (2021-03-11T07:23:45Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。