論文の概要: HealthE: Classifying Entities in Online Textual Health Advice
- arxiv url: http://arxiv.org/abs/2210.03246v1
- Date: Thu, 6 Oct 2022 23:18:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:41:36.314508
- Title: HealthE: Classifying Entities in Online Textual Health Advice
- Title(参考訳): HealthE:オンラインテキストヘルスアドバイザにおけるエンティティの分類
- Authors: Joseph Gatto, Parker Seegmiller, Garrett Johnston, Sarah M. Preum
- Abstract要約: 我々は、6,756の健康アドバイスからなる新しい注釈付きデータセットHealthEをリリースした。
HealthEは既存のNERコーパスに比べて、より粒度の細かいラベル空間を持っている。
我々は、エンティティクラス分類におけるテキストコンテキストパターンを活用する、新しいヘルスエンティティ分類モデルEP S-BERTを導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The processing of entities in natural language is essential to many medical
NLP systems. Unfortunately, existing datasets vastly under-represent the
entities required to model public health relevant texts such as health advice
often found on sites like WebMD. People rely on such information for personal
health management and clinically relevant decision making. In this work, we
release a new annotated dataset, HealthE, consisting of 6,756 health advice.
HealthE has a more granular label space compared to existing medical NER
corpora and contains annotation for diverse health phrases. Additionally, we
introduce a new health entity classification model, EP S-BERT, which leverages
textual context patterns in the classification of entity classes. EP S-BERT
provides a 4-point increase in F1 score over the nearest baseline and a
34-point increase in F1 when compared to off-the-shelf medical NER tools
trained to extract disease and medication mentions from clinical texts. All
code and data are publicly available on Github.
- Abstract(参考訳): 自然言語における実体の処理は多くの医療用NLPシステムに必須である。
残念ながら、既存のデータセットは、webmdのようなサイトでよく見られる健康アドバイスのような、公衆衛生に関連するテキストのモデル化に必要なエンティティをほとんど表現していない。
人々はそのような情報を個人の健康管理や臨床に関連する意思決定に頼っている。
本研究では、6,756の健康アドバイスからなる新しい注釈付きデータセットHealthEをリリースする。
HealthEは既存のNERコーパスに比べてより粒度の細かいラベル空間を持ち、多様な健康用語のアノテーションを含んでいる。
さらに、エンティティクラス分類におけるテキストコンテキストパターンを活用する、新しいヘルスエンティティ分類モデルEP S-BERTを導入する。
EP S-BERTは、臨床テキストから疾患や医薬品の言及を抽出するために訓練された市販の医療用NERツールと比較して、最寄りのベースラインよりもF1スコアが4ポイント上昇し、F1が34ポイント上昇する。
すべてのコードとデータはgithubで公開されている。
関連論文リスト
- Towards Evaluating and Building Versatile Large Language Models for Medicine [57.49547766838095]
MedS-Benchは大規模言語モデル(LLM)の性能を臨床的に評価するためのベンチマークである。
MedS-Benchは、臨床報告の要約、治療勧告、診断、名前付きエンティティ認識、医療概念説明を含む、11のハイレベルな臨床タスクにまたがる。
MedS-Insは58の医療指向言語コーパスで構成され、112のタスクで1350万のサンプルを収集している。
論文 参考訳(メタデータ) (2024-08-22T17:01:34Z) - FEDMEKI: A Benchmark for Scaling Medical Foundation Models via Federated Knowledge Injection [83.54960238236548]
FEDMEKIはデータのプライバシーを守るだけでなく、医療基盤モデルの能力を高める。
FEDMEKIは、医療ファンデーションモデルに対して、直接データを公開することなく、幅広い医療知識から学ぶことを可能にする。
論文 参考訳(メタデータ) (2024-08-17T15:18:56Z) - SNOBERT: A Benchmark for clinical notes entity linking in the SNOMED CT clinical terminology [43.89160296332471]
本稿では,BERT モデルを用いた SNOMED CT のテキストスパンと特定の概念をリンクする手法を提案する。
本手法は, 候補選択と候補マッチングの2段階からなる。これらのモデルは, ラベル付き臨床ノートの公開データセットの中で, 最大規模で訓練された。
論文 参考訳(メタデータ) (2024-05-25T08:00:44Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - An Analysis on Large Language Models in Healthcare: A Case Study of
BioBERT [0.0]
本稿では,大規模言語モデル,特にBioBERTを医療に応用するための包括的調査を行う。
この分析は、医療領域のユニークなニーズを満たすために、BioBERTを微調整するための体系的な方法論を概説している。
本論文は、倫理的考察、特に患者のプライバシーとデータセキュリティを徹底的に検討する。
論文 参考訳(メタデータ) (2023-10-11T08:16:35Z) - Toward Improving Health Literacy in Patient Education Materials with
Neural Machine Translation Models [4.402142901902557]
健康リテラシーの低い人は、通常、診察後指示に従って処方薬を使用するなど、健康情報を理解するのに苦労する。
本稿では, 自然言語処理技術を活用して, 文中のイルミネーション言語を自動的に翻訳することで, 患者教育教材の健康リテラシーを向上させることを提案する。
私たちは、銀標準トレーニングデータセットと金標準テストデータセットを使用して、最先端のニューラルネットワーク翻訳(NMT)モデルをトレーニングし、テストしました。
論文 参考訳(メタデータ) (2022-09-14T15:30:54Z) - New Arabic Medical Dataset for Diseases Classification [55.41644538483948]
いくつかのアラブの医療ウェブサイトから収集された2000の医療資料を含む、アラブの医療データセットを新たに導入する。
データセットはテキストの分類作業のために構築され、10つのクラス(Blood, Bone, Cardiovascular, Ear, Endocrine, Eye, Gastrointestinal, Immune, Liver, Nephrological)を含んでいる。
データセットの実験は、GoogleのBERT、大きなアラビアのコーパスを持つBERTに基づくアラビアト、アラビアの医療コーパスをベースとしたAraBioNERの3つの事前トレーニングモデルによって行われた。
論文 参考訳(メタデータ) (2021-06-29T10:42:53Z) - Word-level Text Highlighting of Medical Texts forTelehealth Services [0.0]
本研究の目的は,異なるテキストハイライト技術が関連する医療状況をどのように捉えることができるかを示すことである。
3つの異なる単語レベルのテキストハイライト手法を実装し評価する。
実験の結果、ニューラルネットワークアプローチは医療関連用語の強調に成功していることがわかった。
論文 参考訳(メタデータ) (2021-05-21T15:13:54Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z) - COMETA: A Corpus for Medical Entity Linking in the Social Media [27.13349965075764]
われわれは、Redditの専門家がSNOMED CTへのリンクを付加した20万の英語バイオメディカルエンティティからなるCOMETAという新しいコーパスを紹介した。
私たちのコーパスは、スケールとカバレッジから多様性と品質まで、望ましい特性の組み合わせを満足しています。
2つの挑戦的な評価シナリオの下で、エンティティや概念に関する複雑な推論を行うことのできる、これらのシステムの能力に光を当てた。
論文 参考訳(メタデータ) (2020-10-07T09:16:45Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。