論文の概要: A Dataset and Benchmark for Consumer Healthcare Question Summarization
- arxiv url: http://arxiv.org/abs/2512.23637v1
- Date: Mon, 29 Dec 2025 17:49:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.60348
- Title: A Dataset and Benchmark for Consumer Healthcare Question Summarization
- Title(参考訳): 消費者健康問題要約のためのデータセットとベンチマーク
- Authors: Abhishek Basu, Deepak Gupta, Dina Demner-Fushman, Shweta Yadav,
- Abstract要約: 我々は1507のドメイン専門家によるアノテートされた消費者健康問題とそれに対応する要約を含む新しいデータセットCHQ-Sum,mを紹介した。
我々は,複数の最先端要約モデル上でデータセットをベンチマークし,データセットの有効性を示す。
- 参考スコア(独自算出の注目度): 13.145373818897925
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The quest for seeking health information has swamped the web with consumers health-related questions. Generally, con- sumers use overly descriptive and peripheral information to express their medical condition or other healthcare needs, contributing to the challenges of natural language understanding. One way to address this challenge is to summarize the questions and distill the key information of the original question. Recently, large-scale datasets have significantly propelled the development of several summarization tasks, such as multi-document summarization and dialogue summarization. However, a lack of a domain-expert annotated dataset for the consumer healthcare questions summarization task inhibits the development of an efficient summarization system. To address this issue, we introduce a new dataset, CHQ-Sum,m that contains 1507 domain-expert annotated consumer health questions and corresponding summaries. The dataset is derived from the community question answering forum and therefore provides a valuable resource for understanding consumer health-related posts on social media. We benchmark the dataset on multiple state-of-the-art summarization models to show the effectiveness of the dataset
- Abstract(参考訳): 健康情報を探究する試みは、消費者の健康に関する質問でウェブに波及した。
一般的に、コンサマーは医療状況や他の医療ニーズを表現するために過剰に記述された周辺情報を使用し、自然言語理解の課題に寄与する。
この課題に対処する1つの方法は、質問を要約し、元の質問の重要な情報を抽出することである。
近年,大規模データセットは,多文書要約や対話要約など,いくつかの要約タスクの開発を著しく促進している。
しかし、消費者医療問題要約タスクのためのドメインエキスパートアノテートデータセットの欠如は、効率的な要約システムの開発を阻害する。
この問題に対処するために、ドメイン専門のアノテートされた消費者健康問題とそれに対応する要約を含む新しいデータセットであるCHQ-Sum,mを導入する。
このデータセットは、コミュニティの質問応答フォーラムから派生したもので、ソーシャルメディア上の消費者健康関連投稿を理解するための貴重なリソースを提供する。
我々は、データセットの有効性を示すために、複数の最先端の要約モデル上でデータセットをベンチマークする。
関連論文リスト
- QAGCF: Graph Collaborative Filtering for Q&A Recommendation [58.21387109664593]
質問と回答(Q&A)プラットフォームは通常、ユーザの知識獲得のニーズを満たすために質問と回答のペアを推奨する。
これにより、ユーザの振る舞いがより複雑になり、Q&Aレコメンデーションの2つの課題が提示される。
グラフニューラルネットワークモデルであるQ&Answer Graph Collaborative Filtering (QAGCF)を導入する。
論文 参考訳(メタデータ) (2024-06-07T10:52:37Z) - Aspect-oriented Consumer Health Answer Summarization [2.298110639419913]
コミュニティ質問回答(Community Question-Answering、CQA)フォーラムは、人々が情報を求める方法、特に医療ニーズに関連するものに革命をもたらした。
単一のクエリに対する応答にはいくつかの回答があるため、特定の健康上の懸念に関連する重要な情報を把握することが難しくなる。
本研究は、この制限に対処するために、側面に基づく健康回答の要約に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-10T07:52:43Z) - Qsnail: A Questionnaire Dataset for Sequential Question Generation [76.616068047362]
質問紙作成作業に特化して構築された最初のデータセットについて述べる。
我々はQsnailの実験を行い、その結果、検索モデルと従来の生成モデルが与えられた研究トピックや意図と完全に一致していないことが明らかとなった。
チェーン・オブ・シークレット・プロンプトと微調整による改善にもかかわらず、言語モデルによるアンケートは、人間の手書きのアンケートには及ばない。
論文 参考訳(メタデータ) (2024-02-22T04:14:10Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - CHQ-Summ: A Dataset for Consumer Healthcare Question Summarization [21.331145794496774]
我々は1507のドメイン専門家によるアノテートされた消費者健康問題とそれに対応する要約を含む新しいデータセットであるCHQ-Summを紹介した。
データセットはコミュニティの質問応答フォーラムから派生したものだ。
我々は,複数の最先端要約モデル上でデータセットをベンチマークし,データセットの有効性を示す。
論文 参考訳(メタデータ) (2022-06-14T03:49:03Z) - AnswerSumm: A Manually-Curated Dataset and Pipeline for Answer
Summarization [73.91543616777064]
Stack OverflowやYahoo!のようなコミュニティ質問回答(CQA)フォーラムには、幅広いコミュニティベースの質問に対する回答の豊富なリソースが含まれている。
回答の要約の1つのゴールは、回答の視点の範囲を反映した要約を作成することである。
本研究は,専門言語学者による解答要約のための4,631個のCQAスレッドからなる新しいデータセットを導入する。
論文 参考訳(メタデータ) (2021-11-11T21:48:02Z) - Question-aware Transformer Models for Consumer Health Question
Summarization [20.342580435464072]
我々は,医療機関の認識を通じて質問の意味的解釈を活用する抽象的質問要約モデルを開発した。
MeQSumベンチマークコーパスで評価すると、我々のフレームワークは最先端の手法を10.2ROUGE-Lで上回りました。
論文 参考訳(メタデータ) (2021-06-01T04:21:31Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Question-Driven Summarization of Answers to Consumer Health Questions [17.732729654047983]
MEDIQA Answer Summarization データセットを提案する。
このデータセットは、消費者健康問題に対する回答の質問駆動要約を含む最初の要約コレクションである。
ベースラインと最先端のディープラーニング要約モデルの結果を含める。
論文 参考訳(メタデータ) (2020-05-18T20:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。