論文の概要: Scope of Pre-trained Language Models for Detecting Conflicting Health
Information
- arxiv url: http://arxiv.org/abs/2209.11102v1
- Date: Thu, 22 Sep 2022 15:40:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 13:24:46.792023
- Title: Scope of Pre-trained Language Models for Detecting Conflicting Health
Information
- Title(参考訳): 健康情報の衝突検出のための事前学習言語モデルの検討
- Authors: Joseph Gatto, Madhusudan Basak, Sarah M. Preum
- Abstract要約: ヘルスコンフリクト検出(Health conflict detection、HCD)は、健康アドバイス文を比較し、それらがどのように矛盾しているかを検出する能力である。
本研究では,事前学習型言語モデルを用いてHCDを探索する。
DeBERTa-v3 は全ての実験において平均 F1 スコア 0.68 で最高の性能を示した。
- 参考スコア(独自算出の注目度): 0.07366405857677226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An increasing number of people now rely on online platforms to meet their
health information needs. Thus identifying inconsistent or conflicting textual
health information has become a safety-critical task. Health advice data poses
a unique challenge where information that is accurate in the context of one
diagnosis can be conflicting in the context of another. For example, people
suffering from diabetes and hypertension often receive conflicting health
advice on diet. This motivates the need for technologies which can provide
contextualized, user-specific health advice. A crucial step towards
contextualized advice is the ability to compare health advice statements and
detect if and how they are conflicting. This is the task of health conflict
detection (HCD). Given two pieces of health advice, the goal of HCD is to
detect and categorize the type of conflict. It is a challenging task, as (i)
automatically identifying and categorizing conflicts requires a deeper
understanding of the semantics of the text, and (ii) the amount of available
data is quite limited.
In this study, we are the first to explore HCD in the context of pre-trained
language models. We find that DeBERTa-v3 performs best with a mean F1 score of
0.68 across all experiments. We additionally investigate the challenges posed
by different conflict types and how synthetic data improves a model's
understanding of conflict-specific semantics. Finally, we highlight the
difficulty in collecting real health conflicts and propose a human-in-the-loop
synthetic data augmentation approach to expand existing HCD datasets. Our HCD
training dataset is over 2x bigger than the existing HCD dataset and is made
publicly available on Github.
- Abstract(参考訳): 現在、健康情報のニーズを満たすためにオンラインプラットフォームを利用する人が増えている。
したがって、矛盾するテキストの健康情報を識別することは、安全にとって重要な課題となっている。
健康アドバイスデータは、ある診断の文脈で正確である情報が、別の診断の文脈で矛盾する可能性があるというユニークな課題を提起する。
例えば、糖尿病や高血圧に苦しむ人は、しばしば食生活で相反する健康アドバイスを受ける。
これにより、コンテキスト化されたユーザー固有の健康アドバイスを提供する技術の必要性が高まる。
文脈化されたアドバイスへの重要なステップは、健康アドバイスステートメントを比較し、それらがどのように矛盾しているかを検出する能力である。
これがHCD(Health conflict detection)の課題である。
2つの健康アドバイスを与えられたHCDの目標は、紛争の種類を検出し分類することである。
それは挑戦的な仕事です。
(i)紛争を自動的に識別し分類するには、テキストの意味をより深く理解する必要がある。
(ii)利用可能なデータ量は極めて限られている。
本研究では,事前学習された言語モデルの文脈でhcdを初めて研究する。
DeBERTa-v3 は全ての実験において平均 F1 スコア 0.68 で最高の性能を示した。
さらに、異なるコンフリクトタイプに起因する課題と、コンフリクト固有のセマンティクスに対するモデルの理解を改善するための合成データについても検討する。
最後に、実際の健康紛争を収集することの難しさを強調し、既存のhcdデータセットを拡張するための人工データ拡張手法を提案する。
私たちのHCDトレーニングデータセットは、既存のHCDデータセットよりも2倍以上大きく、Githubで公開されています。
関連論文リスト
- Uncertainty of Thoughts: Uncertainty-Aware Planning Enhances Information Seeking in Large Language Models [73.79091519226026]
Uncertainty of Thoughts (UoT) は、大きな言語モデルを拡張するアルゴリズムであり、効果的な質問をすることで積極的に情報を求めることができる。
医療診断、トラブルシューティング、および20の質問ゲームに関する実験において、UoTは、タスク完了の成功率において平均38.1%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-02-05T18:28:44Z) - Advancements in eHealth Data Analytics through Natural Language
Processing and Deep Learning [0.614609308117547]
この章では、非構造化(画像およびテキスト)eヘルスデータを解析するための、現在で最も高性能なソリューションについて批判的な研究を行っている。
この研究は、eHealthコンテキストにおける現在の自然言語処理とディープラーニング技術の比較も提供する。
論文 参考訳(メタデータ) (2024-01-19T17:51:11Z) - DEMASQ: Unmasking the ChatGPT Wordsmith [63.8746084667206]
そこで本研究では,ChatGPT生成内容を正確に識別する効果的なChatGPT検出器DEMASQを提案する。
提案手法は, 人為的, 機械的, 人為的, 人為的, 機械的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人為的, 人
論文 参考訳(メタデータ) (2023-11-08T21:13:05Z) - Health Disparities through Generative AI Models: A Comparison Study
Using A Domain Specific large language model [0.0]
大規模言語モデル(LLM)と呼ばれる人工知能プログラムは、人間の言語を理解し、生成することができる。
本稿では,SciBERTのようなドメイン固有な大規模言語モデルの比較研究を紹介する。
臨床医は、患者と非同期に通信する際に、生成AIを使用してドラフトレスポンスを作成することができると信じている。
論文 参考訳(メタデータ) (2023-10-23T21:24:05Z) - Learning from pandemics: using extraordinary events can improve disease
now-casting models [0.0]
恐怖や好奇心、その他多くの理由は、個人が健康関連情報を検索し、疾患による検索を隠蔽する可能性がある。
本稿では,21世紀の2つのパンデミック(2009-H1N1fluとCovid-19)に注目し,一般情報検索に関連する検索パターンを識別する手法を提案する。
このようなパンデミック期から学習することで,不安感やメディアの誇大広告によって,オンライン検索を選択し,モデル性能を向上させることが可能であることを示す。
論文 参考訳(メタデータ) (2021-01-17T20:36:19Z) - A Review of Deep Learning Methods for Irregularly Sampled Medical Time
Series Data [7.735948372571363]
不規則サンプリング時系列(ISTS)データは、観測とシーケンス間の異なるサンプリング率の間に不規則な時間間隔を持つ。
EHRデータの深層学習法は、パーソナライズされた治療、正確な診断、医療管理に重要である。
本稿では,これらの深層学習手法を,技術とタスクの観点から概観する。
論文 参考訳(メタデータ) (2020-10-23T15:51:23Z) - Drink Bleach or Do What Now? Covid-HeRA: A Study of Risk-Informed Health
Decision Making in the Presence of COVID-19 Misinformation [23.449057978351945]
我々は健康上の誤報をリスクアセスメントのタスクとみなしている。
各誤報記事の重大さと読者がこの重大さをどう認識するかを考察する。
従来のモデルと最先端モデルを評価し、性能に大きなギャップがあることを示します。
論文 参考訳(メタデータ) (2020-10-17T08:34:57Z) - MedDG: An Entity-Centric Medical Consultation Dataset for Entity-Aware
Medical Dialogue Generation [86.38736781043109]
MedDGという12種類の消化器疾患に関連する大規模医用対話データセットを構築し,公開する。
MedDGデータセットに基づく2種類の医療対話タスクを提案する。1つは次のエンティティ予測であり、もう1つは医師の反応生成である。
実験結果から,プレトレイン言語モデルと他のベースラインは,両方のタスクに苦戦し,データセットの性能が劣ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T03:34:33Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。