論文の概要: HealthE: Classifying Entities in Online Textual Health Advice
- arxiv url: http://arxiv.org/abs/2210.03246v1
- Date: Thu, 6 Oct 2022 23:18:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:41:36.314508
- Title: HealthE: Classifying Entities in Online Textual Health Advice
- Title(参考訳): HealthE:オンラインテキストヘルスアドバイザにおけるエンティティの分類
- Authors: Joseph Gatto, Parker Seegmiller, Garrett Johnston, Sarah M. Preum
- Abstract要約: 我々は、6,756の健康アドバイスからなる新しい注釈付きデータセットHealthEをリリースした。
HealthEは既存のNERコーパスに比べて、より粒度の細かいラベル空間を持っている。
我々は、エンティティクラス分類におけるテキストコンテキストパターンを活用する、新しいヘルスエンティティ分類モデルEP S-BERTを導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The processing of entities in natural language is essential to many medical
NLP systems. Unfortunately, existing datasets vastly under-represent the
entities required to model public health relevant texts such as health advice
often found on sites like WebMD. People rely on such information for personal
health management and clinically relevant decision making. In this work, we
release a new annotated dataset, HealthE, consisting of 6,756 health advice.
HealthE has a more granular label space compared to existing medical NER
corpora and contains annotation for diverse health phrases. Additionally, we
introduce a new health entity classification model, EP S-BERT, which leverages
textual context patterns in the classification of entity classes. EP S-BERT
provides a 4-point increase in F1 score over the nearest baseline and a
34-point increase in F1 when compared to off-the-shelf medical NER tools
trained to extract disease and medication mentions from clinical texts. All
code and data are publicly available on Github.
- Abstract(参考訳): 自然言語における実体の処理は多くの医療用NLPシステムに必須である。
残念ながら、既存のデータセットは、webmdのようなサイトでよく見られる健康アドバイスのような、公衆衛生に関連するテキストのモデル化に必要なエンティティをほとんど表現していない。
人々はそのような情報を個人の健康管理や臨床に関連する意思決定に頼っている。
本研究では、6,756の健康アドバイスからなる新しい注釈付きデータセットHealthEをリリースする。
HealthEは既存のNERコーパスに比べてより粒度の細かいラベル空間を持ち、多様な健康用語のアノテーションを含んでいる。
さらに、エンティティクラス分類におけるテキストコンテキストパターンを活用する、新しいヘルスエンティティ分類モデルEP S-BERTを導入する。
EP S-BERTは、臨床テキストから疾患や医薬品の言及を抽出するために訓練された市販の医療用NERツールと比較して、最寄りのベースラインよりもF1スコアが4ポイント上昇し、F1が34ポイント上昇する。
すべてのコードとデータはgithubで公開されている。
関連論文リスト
- Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - An Analysis on Large Language Models in Healthcare: A Case Study of
BioBERT [0.0]
本稿では,大規模言語モデル,特にBioBERTを医療に応用するための包括的調査を行う。
この分析は、医療領域のユニークなニーズを満たすために、BioBERTを微調整するための体系的な方法論を概説している。
本論文は、倫理的考察、特に患者のプライバシーとデータセキュリティを徹底的に検討する。
論文 参考訳(メタデータ) (2023-10-11T08:16:35Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - Toward Improving Health Literacy in Patient Education Materials with
Neural Machine Translation Models [4.402142901902557]
健康リテラシーの低い人は、通常、診察後指示に従って処方薬を使用するなど、健康情報を理解するのに苦労する。
本稿では, 自然言語処理技術を活用して, 文中のイルミネーション言語を自動的に翻訳することで, 患者教育教材の健康リテラシーを向上させることを提案する。
私たちは、銀標準トレーニングデータセットと金標準テストデータセットを使用して、最先端のニューラルネットワーク翻訳(NMT)モデルをトレーニングし、テストしました。
論文 参考訳(メタデータ) (2022-09-14T15:30:54Z) - New Arabic Medical Dataset for Diseases Classification [55.41644538483948]
いくつかのアラブの医療ウェブサイトから収集された2000の医療資料を含む、アラブの医療データセットを新たに導入する。
データセットはテキストの分類作業のために構築され、10つのクラス(Blood, Bone, Cardiovascular, Ear, Endocrine, Eye, Gastrointestinal, Immune, Liver, Nephrological)を含んでいる。
データセットの実験は、GoogleのBERT、大きなアラビアのコーパスを持つBERTに基づくアラビアト、アラビアの医療コーパスをベースとしたAraBioNERの3つの事前トレーニングモデルによって行われた。
論文 参考訳(メタデータ) (2021-06-29T10:42:53Z) - Word-level Text Highlighting of Medical Texts forTelehealth Services [0.0]
本研究の目的は,異なるテキストハイライト技術が関連する医療状況をどのように捉えることができるかを示すことである。
3つの異なる単語レベルのテキストハイライト手法を実装し評価する。
実験の結果、ニューラルネットワークアプローチは医療関連用語の強調に成功していることがわかった。
論文 参考訳(メタデータ) (2021-05-21T15:13:54Z) - A Cross-lingual Natural Language Processing Framework for Infodemic
Management [0.6606016007748989]
新型コロナウイルス(COVID-19)のパンデミックは、医療システムに多大な圧力をかけている。
我々は,一般大衆に散布する必要がある関連情報を特定するために,自然言語処理の可能性を利用した。
我々は,世界保健機関の信頼できるガイドラインと日々のニュースを一致させて,関連情報を提供する,新たな言語間自然言語処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-30T16:26:35Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z) - COMETA: A Corpus for Medical Entity Linking in the Social Media [27.13349965075764]
われわれは、Redditの専門家がSNOMED CTへのリンクを付加した20万の英語バイオメディカルエンティティからなるCOMETAという新しいコーパスを紹介した。
私たちのコーパスは、スケールとカバレッジから多様性と品質まで、望ましい特性の組み合わせを満足しています。
2つの挑戦的な評価シナリオの下で、エンティティや概念に関する複雑な推論を行うことのできる、これらのシステムの能力に光を当てた。
論文 参考訳(メタデータ) (2020-10-07T09:16:45Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z) - Learning Contextualized Document Representations for Healthcare Answer
Retrieval [68.02029435111193]
コンテキスト談話ベクトル(英: Contextual Discourse Vectors、CDV)は、長文からの効率的な回答検索のための分散文書表現である。
本モデルでは,階層型LSTMレイヤとマルチタスクトレーニングを併用したデュアルエンコーダアーキテクチャを用いて,臨床エンティティの位置と文書の談話に沿った側面をエンコードする。
我々の一般化モデルは、医療パスランキングにおいて、最先端のベースラインを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2020-02-03T15:47:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。