論文の概要: Towards Pragmatic Awareness in Question Answering: A Case Study in
Maternal and Infant Health
- arxiv url: http://arxiv.org/abs/2311.09542v1
- Date: Thu, 16 Nov 2023 03:33:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 16:36:29.492639
- Title: Towards Pragmatic Awareness in Question Answering: A Case Study in
Maternal and Infant Health
- Title(参考訳): 質問応答における実用的意識:母子保健を事例として
- Authors: Neha Srikanth, Rupak Sarkar, Rachel Rudinger, Jordan Boyd-Graber
- Abstract要約: 母親が妊娠や乳幼児ケアについて質問したときの実践的推論について検討した。
既存のQAパイプラインに実用的推論を施すと、有害な信念の伝播を緩和できる応答が生じることを示す。
- 参考スコア(独自算出の注目度): 25.03381993792341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Questions posed by information-seeking users often contain implicit false or
potentially harmful assumptions. In a high-risk domain such as maternal and
infant health, a question-answering system must recognize these pragmatic
constraints and go beyond simply answering user questions, examining them in
context to respond helpfully. To achieve this, we study pragmatic inferences
made when mothers ask questions about pregnancy and infant care. Some of the
inferences in these questions evade detection by existing methods, risking the
possibility of QA systems failing to address them which can have dangerous
health and policy implications. We explore the viability of detecting
inferences from questions using large language models and illustrate that
informing existing QA pipelines with pragmatic inferences produces responses
that can mitigate the propagation of harmful beliefs.
- Abstract(参考訳): 情報検索ユーザーによる質問は、しばしば暗黙の虚偽または潜在的に有害な仮定を含む。
母親や幼児の健康などのリスクの高い領域では、質問応答システムはこれらの現実的な制約を認識し、単にユーザーの質問に答えるだけでなく、文脈でそれらを調べて役に立つ対応をしなければならない。
そこで我々は,母親が妊娠と乳幼児ケアについて質問したときの実践的推論について検討した。
これらの疑問のいくつかの推論は、既存の方法による検出を回避し、危険な健康や政策に影響を及ぼす可能性のあるQAシステムに対処できないリスクを負う。
本研究では,大規模言語モデルを用いた質問からの推論の検出可能性について検討し,既存のQAパイプラインに実用的推論を施すことによって,有害な信念の伝播を緩和する応答が生じることを示す。
関連論文リスト
- Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Don't Just Say "I don't know"! Self-aligning Large Language Models for Responding to Unknown Questions with Explanations [70.6395572287422]
自己調整法は,回答を拒否するだけでなく,未知の質問の解答不能を説明できる。
我々は, LLM自体を微調整し, 未知の質問に対する応答を所望の通りに調整するために, 偏差駆動による自己計算を行い, 有資格データを選択する。
論文 参考訳(メタデータ) (2024-02-23T02:24:36Z) - PreWoMe: Exploiting Presuppositions as Working Memory for Long Form
Question Answering [6.629673922630515]
我々は,任意の種類の情報探索問題に対処できる統一的なアプローチであるPreWoMeを提案する。
実験の結果,PreWoMeは誤解を招く質問に対処するだけでなく,通常の質問に対処する上でも有効であることがわかった。
論文 参考訳(メタデータ) (2023-10-24T19:47:26Z) - ExpertQA: Expert-Curated Questions and Attributed Answers [51.68314045809179]
我々は,様々な属性と事実の軸に沿って,いくつかの代表システムからの応答を人為的に評価する。
我々は32分野にわたる484人の被験者から専門家による質問を収集し、同じ専門家に自身の質問に対する反応を評価する。
分析の結果は,32分野にまたがる2177の質問と,回答の検証とクレームの属性を備えた高品質な長文QAデータセットであるExpertQAである。
論文 参考訳(メタデータ) (2023-09-14T16:54:34Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Contributions to the Improvement of Question Answering Systems in the
Biomedical Domain [0.951828574518325]
この論文は、生物医学領域における質問応答(QA)の枠組みに該当する。
バイオメディカル領域におけるQAの性能向上のための4つのコントリビューションを提案する。
我々はSemBioNLQAと呼ばれる完全に自動化されたセマンティックバイオメディカルQAシステムを開発した。
論文 参考訳(メタデータ) (2023-07-25T16:31:20Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - Medical Question Understanding and Answering with Knowledge Grounding
and Semantic Self-Supervision [53.692793122749414]
本稿では,知識基盤とセマンティック・セルフスーパービジョンを備えた医療質問理解・回答システムについて紹介する。
我々のシステムは、まず、教師付き要約損失を用いて、長い医学的、ユーザによる質問を要約するパイプラインである。
システムはまず、信頼された医療知識ベースから要約されたユーザ質問とFAQとをマッチングし、対応する回答文書から一定の数の関連文を検索する。
論文 参考訳(メタデータ) (2022-09-30T08:20:32Z) - Reinforcement Learning for Abstractive Question Summarization with
Question-aware Semantic Rewards [20.342580435464072]
本稿では,抽象的な質問要約のための強化学習に基づくフレームワークを提案する。
i)質問型識別と(ii)質問焦点認識の下流タスクから得られる2つの新しい報酬を提案する。
これらの報酬は意味論的に有効な質問の生成を確実にし、質問要約に重要な医療機関/焦点を取り入れることを奨励する。
論文 参考訳(メタデータ) (2021-07-01T02:06:46Z) - Stay Hungry, Stay Focused: Generating Informative and Specific Questions
in Information-Seeking Conversations [41.74162467619795]
情報非対称な会話における情報的質問生成の問題について検討する。
実践的な質問を生成するために,情報量測定を最適化するために強化学習を用いる。
そこで本研究では,提案した実用的質問は,ベースラインモデル上で生成した質問の有意性と特異性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2020-04-30T00:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。