論文の概要: Medical Question Summarization with Entity-driven Contrastive Learning
- arxiv url: http://arxiv.org/abs/2304.07437v1
- Date: Sat, 15 Apr 2023 00:19:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 19:12:56.381549
- Title: Medical Question Summarization with Entity-driven Contrastive Learning
- Title(参考訳): エンティティ駆動型コントラスト学習による医療質問要約
- Authors: Sibo Wei, Wenpeng Lu, Xueping Peng, Shoujin Wang, Yi-Fei Wang and
Weiyu Zhang
- Abstract要約: 本稿では,エンティティ駆動型コントラスト学習(ECL)を用いた新しい医療質問要約フレームワークを提案する。
ECLは、しばしば質問される質問(FAQ)に医療機関を採用し、硬い負のサンプルを生成する効果的なメカニズムを考案している。
iCliniqデータセットの33%の重複率など、いくつかのMQAデータセットが深刻なデータ漏洩問題に悩まされていることが分かりました。
- 参考スコア(独自算出の注目度): 12.008269098530386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: By summarizing longer consumer health questions into shorter and essential
ones, medical question answering (MQA) systems can more accurately understand
consumer intentions and retrieve suitable answers. However, medical question
summarization is very challenging due to obvious distinctions in health trouble
descriptions from patients and doctors. Although existing works have attempted
to utilize Seq2Seq, reinforcement learning, or contrastive learning to solve
the problem, two challenges remain: how to correctly capture question focus to
model its semantic intention, and how to obtain reliable datasets to fairly
evaluate performance. To address these challenges, this paper proposes a novel
medical question summarization framework using entity-driven contrastive
learning (ECL). ECL employs medical entities in frequently asked questions
(FAQs) as focuses and devises an effective mechanism to generate hard negative
samples. This approach forces models to pay attention to the crucial focus
information and generate more ideal question summarization. Additionally, we
find that some MQA datasets suffer from serious data leakage problems, such as
the iCliniq dataset's 33% duplicate rate. To evaluate the related methods
fairly, this paper carefully checks leaked samples to reorganize more
reasonable datasets. Extensive experiments demonstrate that our ECL method
outperforms state-of-the-art methods by accurately capturing question focus and
generating medical question summaries. The code and datasets are available at
https://github.com/yrbobo/MQS-ECL.
- Abstract(参考訳): より長い消費者健康質問を短く重要な質問にまとめることで、医療質問応答(MQA)システムは消費者の意図をより正確に理解し、適切な回答を得ることができる。
しかし、医療質問要約は患者と医師との健康問題記述の明らかな区別のため、非常に困難である。
既存の研究では、Seq2Seq、強化学習、あるいはコントラスト学習を用いてこの問題を解決しようとしているが、質問の焦点を正確に捉えて意味的な意図をモデル化する方法、信頼性のあるデータセットを取得してパフォーマンスを適切に評価する方法の2つの課題が残っている。
これらの課題に対処するために,エンティティ駆動型コントラスト学習(ECL)を用いた新しい医療質問要約フレームワークを提案する。
ECLは、しばしば質問される質問(FAQ)に医療機関を採用し、硬い負のサンプルを生成する効果的なメカニズムを考案している。
このアプローチでは、モデルに重要な焦点情報に注意を払って、より理想的な質問要約を生成する。
さらに、いくつかのMQAデータセットは、iCliniqデータセットの33%の重複率など、深刻なデータ漏洩問題に悩まされている。
関連手法を公平に評価するために,リークしたサンプルを慎重にチェックし,より合理的なデータセットを再編成する。
ECL法は,質問焦点を正確に把握し,医学的質問要約を生成することにより,最先端の手法よりも優れていることを示す。
コードとデータセットはhttps://github.com/yrbobo/mqs-eclで入手できる。
関連論文リスト
- FEDMEKI: A Benchmark for Scaling Medical Foundation Models via Federated Knowledge Injection [83.54960238236548]
FEDMEKIはデータのプライバシーを守るだけでなく、医療基盤モデルの能力を高める。
FEDMEKIは、医療ファンデーションモデルに対して、直接データを公開することなく、幅広い医療知識から学ぶことを可能にする。
論文 参考訳(メタデータ) (2024-08-17T15:18:56Z) - RealMedQA: A pilot biomedical question answering dataset containing realistic clinical questions [3.182594503527438]
本稿では,人間とLLMが生み出す現実的な臨床質問のデータセットであるRealMedQAを紹介する。
LLMは「理想的な」QAペアを生成するのに、よりコスト効率が高いことを示す。
論文 参考訳(メタデータ) (2024-08-16T09:32:43Z) - ScholarChemQA: Unveiling the Power of Language Models in Chemical Research Question Answering [54.80411755871931]
質問回答(QA)は、言語モデルの推論と知識の深さを効果的に評価する。
化学QAは、複雑な化学情報を理解しやすい形式に効果的に翻訳することで、教育と研究の両方において重要な役割を担っている。
このデータセットは、不均衡なデータ分散や、潜在的に有用である可能性のあるかなりの量の未ラベルデータを含む、典型的な現実世界の課題を反映している。
収集したデータを完全に活用して,化学的な問題に効果的に答えるQAMatchモデルを提案する。
論文 参考訳(メタデータ) (2024-07-24T01:46:55Z) - Question-Answering Based Summarization of Electronic Health Records
using Retrieval Augmented Generation [0.0]
本稿では,セマンティック検索,検索拡張生成,質問応答を組み合わせることで,欠点を軽減できる手法を提案する。
我々のアプローチは非常に効率的で、訓練は最小限から不要であり、LLMの「幻覚」問題に苦しむことはない。
要約には繰り返しの内容はなく、特定の質問に対する多様な回答があるため、多様性を保証する。
論文 参考訳(メタデータ) (2024-01-03T00:09:34Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z) - Focus-Driven Contrastive Learniang for Medical Question Summarization [18.33686557238865]
焦点駆動型コントラスト学習フレームワーク(QFCL)を提案する。
3つの医用ベンチマーク・データセットを用いて,提案したモデルにより,新たな最先端結果が得られた。
我々のQFCLモデルは、異なる文の意味を識別する能力により、より良い文表現を学習する。
論文 参考訳(メタデータ) (2022-09-01T14:15:46Z) - Federated Semi-supervised Medical Image Classification via Inter-client
Relation Matching [58.26619456972598]
フェデレートラーニング(FL)は、ディープ・ネットワークのトレーニングのために、分散医療機関とのコラボレーションで人気が高まっている。
本報告では,実践的かつ困難なFL問題であるtextitFederated Semi-supervised Learning (FSSL)について検討する。
本稿では, 従来の整合性正規化機構を改良し, クライアント間関係マッチング方式を提案する。
論文 参考訳(メタデータ) (2021-06-16T07:58:00Z) - Question-aware Transformer Models for Consumer Health Question
Summarization [20.342580435464072]
我々は,医療機関の認識を通じて質問の意味的解釈を活用する抽象的質問要約モデルを開発した。
MeQSumベンチマークコーパスで評価すると、我々のフレームワークは最先端の手法を10.2ROUGE-Lで上回りました。
論文 参考訳(メタデータ) (2021-06-01T04:21:31Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z) - Question-Driven Summarization of Answers to Consumer Health Questions [17.732729654047983]
MEDIQA Answer Summarization データセットを提案する。
このデータセットは、消費者健康問題に対する回答の質問駆動要約を含む最初の要約コレクションである。
ベースラインと最先端のディープラーニング要約モデルの結果を含める。
論文 参考訳(メタデータ) (2020-05-18T20:36:11Z) - DeepEnroll: Patient-Trial Matching with Deep Embedding and Entailment
Prediction [67.91606509226132]
臨床試験は医薬品開発に不可欠であるが、高価で不正確で不十分な患者募集に苦しむことが多い。
DeepEnrollは、入力基準(タブラリデータ)を一致する推論のための共有潜在空間に共同でエンコードする、クロスモーダル推論学習モデルである。
論文 参考訳(メタデータ) (2020-01-22T17:51:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。