論文の概要: Bio+Clinical BERT, BERT Base, and CNN Performance Comparison for
Predicting Drug-Review Satisfaction
- arxiv url: http://arxiv.org/abs/2308.03782v1
- Date: Wed, 2 Aug 2023 20:01:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 00:27:40.190589
- Title: Bio+Clinical BERT, BERT Base, and CNN Performance Comparison for
Predicting Drug-Review Satisfaction
- Title(参考訳): 医薬品レビュー満足度予測のためのBio+Clinical BERT, BERT Base, CNNパフォーマンス比較
- Authors: Yue Ling
- Abstract要約: 我々は、BERTベースモデル、Bio+Clinical BERT、シンプルなCNNなど、いくつかの分類モデルを実装し、評価する。
以上の結果から,医療領域固有のBio+Clinical BERTモデルは,一般ドメインベースBERTモデルよりも有意に優れていた。
将来の研究は、各モデルの具体的な強みをどのように活用するかを探るかもしれない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The objective of this study is to develop natural language processing (NLP)
models that can analyze patients' drug reviews and accurately classify their
satisfaction levels as positive, neutral, or negative. Such models would reduce
the workload of healthcare professionals and provide greater insight into
patients' quality of life, which is a critical indicator of treatment
effectiveness. To achieve this, we implemented and evaluated several
classification models, including a BERT base model, Bio+Clinical BERT, and a
simpler CNN. Results indicate that the medical domain-specific Bio+Clinical
BERT model significantly outperformed the general domain base BERT model,
achieving macro f1 and recall score improvement of 11%, as shown in Table 2.
Future research could explore how to capitalize on the specific strengths of
each model. Bio+Clinical BERT excels in overall performance, particularly with
medical jargon, while the simpler CNN demonstrates the ability to identify
crucial words and accurately classify sentiment in texts with conflicting
sentiments.
- Abstract(参考訳): 本研究の目的は,患者の薬物レビューを分析し,満足度を肯定的,中立的,否定的に正確に分類できる自然言語処理(NLP)モデルを開発することである。
このようなモデルは、医療従事者の労働負荷を減少させ、患者の生活の質についてより深い洞察を与え、治療効果の重要な指標となる。
そこで我々は,BERTベースモデル,Bio+Clinical BERT,シンプルなCNNなど,いくつかの分類モデルを実装し,評価した。
以上の結果から, 医療領域固有のBio+Clinical BERTモデルでは, 一般的なドメインベースBERTモデルよりも有意に優れ, マクロf1, リコールスコアが11%向上した。
将来の研究は、それぞれのモデルの特定の強みをどのように活用するかを探求するかもしれない。
Bio+Clinical BERTは総合的なパフォーマンス、特に医療用語で優れており、単純なCNNは重要な単語を識別し、矛盾する感情のあるテキストで感情を正確に分類する能力を示している。
関連論文リスト
- Synthetic4Health: Generating Annotated Synthetic Clinical Letters [6.822926897514792]
臨床手紙には機密情報が含まれているため、モデルトレーニング、医学研究、教育には臨床関連データセットが広く適用できない。
本研究は, 信頼性, 各種, 未同定の総合臨床書面を生成することを目的としている。
論文 参考訳(メタデータ) (2024-09-14T18:15:07Z) - Improving Extraction of Clinical Event Contextual Properties from Electronic Health Records: A Comparative Study [2.0884301753594334]
本研究は,医学テキスト分類のための様々な自然言語モデルの比較分析を行う。
BERTはBi-LSTMモデルを最大28%、ベースラインのBERTモデルを最大16%上回り、マイノリティクラスをリコールする。
論文 参考訳(メタデータ) (2024-08-30T10:28:49Z) - Improving Biomedical Entity Linking with Retrieval-enhanced Learning [53.24726622142558]
$k$NN-BioELは、トレーニングコーパス全体から同様のインスタンスを予測のヒントとして参照する機能を備えたBioELモデルを提供する。
k$NN-BioELは、いくつかのデータセットで最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2023-12-15T14:04:23Z) - TREEMENT: Interpretable Patient-Trial Matching via Personalized Dynamic
Tree-Based Memory Network [54.332862955411656]
臨床試験は薬物開発に不可欠であるが、しばしば高価で非効率な患者募集に苦しむ。
近年,患者と臨床試験を自動マッチングすることで患者採用を高速化する機械学習モデルが提案されている。
本稿では,TREement という名前の動的ツリーベースメモリネットワークモデルを導入する。
論文 参考訳(メタデータ) (2023-07-19T12:35:09Z) - BiomedGPT: A Generalist Vision-Language Foundation Model for Diverse Biomedical Tasks [68.39821375903591]
汎用AIは、さまざまなデータ型を解釈する汎用性のために、制限に対処する可能性を秘めている。
本稿では,最初のオープンソースかつ軽量な視覚言語基盤モデルであるBiomedGPTを提案する。
論文 参考訳(メタデータ) (2023-05-26T17:14:43Z) - Assessment of contextualised representations in detecting outcome
phrases in clinical trials [14.584741378279316]
本稿では,300 PubMed の要約を専門的に注釈付けしたデータセット "EBM-COMET" を紹介する。
結果の抽出には,事前学習した文脈表現を微調整する。
ベストモデル(BioBERT)は81.5%のF1、81.3%の感度、98.0%の特異性を達成している。
論文 参考訳(メタデータ) (2022-02-13T15:08:00Z) - Fine-Tuning Large Neural Language Models for Biomedical Natural Language
Processing [55.52858954615655]
バイオメディカルNLPの微調整安定性に関する系統的研究を行った。
我々は、特に低リソース領域において、微調整性能は事前トレーニング設定に敏感であることを示した。
これらの技術は低リソースバイオメディカルNLPアプリケーションの微調整性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-12-15T04:20:35Z) - Improving the robustness and accuracy of biomedical language models
through adversarial training [7.064032374579076]
ディープトランスフォーマーニューラルネットワークモデルは、生物医学領域におけるインテリジェントテキスト処理システムの予測精度を改善した。
ニューラルNLPモデルは、テキストの意味と理解性を保持するが、NLPシステムに誤った判断を強要する入力に対する小さな変更など、敵対的なサンプルによって簡単に騙される。
これにより、バイオメディカルNLPシステムのセキュリティと信頼性に対する深刻な懸念が生じる。
論文 参考訳(メタデータ) (2021-11-16T14:58:05Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - Extracting Lifestyle Factors for Alzheimer's Disease from Clinical Notes
Using Deep Learning with Weak Supervision [9.53786612243512]
本研究の目的は,自然言語処理モデル(NLP)がライフスタイル要因を分類できる可能性を示すことである。
BERTモデルの有効性を検証するために,身体活動と過剰食の2つの事例研究を行った。
弱い監視を生かした提案手法はサンプルサイズを大幅に増大させる可能性がある。
論文 参考訳(メタデータ) (2021-01-22T17:55:03Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。