論文の概要: Open-domain clarification question generation without question examples
- arxiv url: http://arxiv.org/abs/2110.09779v1
- Date: Tue, 19 Oct 2021 07:51:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 13:50:15.202889
- Title: Open-domain clarification question generation without question examples
- Title(参考訳): 質問例のないオープンドメイン明確化質問生成
- Authors: Julia White and Gabriel Poesia and Robert Hawkins and Dorsa Sadigh and
Noah Goodman
- Abstract要約: 本稿では,極性(yes-no)を明確化できる問合せモデルを構築するための枠組みを提案する。
本モデルは,市販画像キャプタから情報的質問を導き出すために,期待された情報ゲイン目標を用いている。
我々は,目標志向の20質問ゲームにおいて,人間と合成者によるコミュニケーションの成功を促す質問を提示するモデルの能力を実証する。
- 参考スコア(独自算出の注目度): 4.34222556313791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An overarching goal of natural language processing is to enable machines to
communicate seamlessly with humans. However, natural language can be ambiguous
or unclear. In cases of uncertainty, humans engage in an interactive process
known as repair: asking questions and seeking clarification until their
uncertainty is resolved. We propose a framework for building a visually
grounded question-asking model capable of producing polar (yes-no)
clarification questions to resolve misunderstandings in dialogue. Our model
uses an expected information gain objective to derive informative questions
from an off-the-shelf image captioner without requiring any supervised
question-answer data. We demonstrate our model's ability to pose questions that
improve communicative success in a goal-oriented 20 questions game with
synthetic and human answerers.
- Abstract(参考訳): 自然言語処理の全体的な目標は、機械が人間とシームレスにコミュニケーションできるようにすることである。
しかし、自然言語は曖昧もしくは不明瞭である。
不確実性の場合、人間は修復と呼ばれる対話的なプロセスに関与し、不確実性が解決されるまで質問し、明確化を求める。
本稿では,対話における誤解を解決するために,極性(yes-no)明確化問題を生成することのできる視覚的接地質問生成モデルを構築するための枠組みを提案する。
本モデルでは, 教師付き質問応答データを必要としない, 市販画像キャプタから情報収集目標を導出する。
我々は,目標志向の20質問ゲームにおいて,人間と合成者によるコミュニケーションの成功を促す質問を提示するモデルの能力を実証する。
関連論文リスト
- Gotcha! Don't trick me with unanswerable questions! Self-aligning Large
Language Models for Responding to Unknown Questions [75.78536317322616]
自己調整法は,回答を拒否するだけでなく,未知の質問の解答不能を説明できる。
我々は, LLM自体を微調整し, 未知の質問に対する応答を所望の通りに調整するために, 偏差駆動による自己計算を行い, 有資格データを選択する。
論文 参考訳(メタデータ) (2024-02-23T02:24:36Z) - Asking the Right Question at the Right Time: Human and Model Uncertainty
Guidance to Ask Clarification Questions [2.3838507844983248]
モデルの不確実性は、人間の明確化と探索の振る舞いを反映しないことを示す。
本稿では,モデル不確実性推定に基づく明確化問題の生成手法を提案する。
論文 参考訳(メタデータ) (2024-02-09T16:15:30Z) - Answering Ambiguous Questions via Iterative Prompting [84.3426020642704]
オープンドメインの質問応答では、質問のあいまいさのため、複数の妥当な回答が存在する可能性がある。
ひとつのアプローチは、すべての有効な回答を直接予測することですが、これは、妥当性と多様性のバランスに苦労する可能性があります。
本稿では,あいまいな疑問に答える既存手法の欠陥に対処するため,AmbigPromptを提案する。
論文 参考訳(メタデータ) (2023-07-08T04:32:17Z) - Covering Uncommon Ground: Gap-Focused Question Generation for Answer
Assessment [75.59538732476346]
このようなギャップに着目した質問(GFQ)を自動生成する問題に着目する。
タスクを定義し、優れたGFQの所望の側面を強調し、これらを満たすモデルを提案する。
論文 参考訳(メタデータ) (2023-07-06T22:21:42Z) - Selectively Answering Ambiguous Questions [38.83930394700588]
我々は, サンプルモデル出力における繰り返しの定量化が, 退避時期を決定する最も信頼性の高い手法であることが判明した。
その結果,サンプリングに基づく信頼度スコアは,比較的あいまいな質問に対する回答のキャリブレーションに有効であることが示唆された。
論文 参考訳(メタデータ) (2023-05-24T01:25:38Z) - Keeping the Questions Conversational: Using Structured Representations
to Resolve Dependency in Conversational Question Answering [26.997542897342164]
本稿では,中間表現を会話の手がかりとして捉え,生成するための新しいフレームワークCONVSR(CONVQA using Structured Representations)を提案する。
我々はQuACとCANARDのデータセット上でモデルをテストし、提案するフレームワークが標準的な質問書き直しモデルよりも優れたF1スコアを達成できることを実験結果により示す。
論文 参考訳(メタデータ) (2023-04-14T13:42:32Z) - Is the Elephant Flying? Resolving Ambiguities in Text-to-Image
Generative Models [64.58271886337826]
テキストから画像への生成モデルで生じるあいまいさについて検討する。
本稿では,ユーザから明確化を求めることによって,システムに与えられるプロンプトのあいまいさを軽減する枠組みを提案する。
論文 参考訳(メタデータ) (2022-11-17T17:12:43Z) - Why Did the Chicken Cross the Road? Rephrasing and Analyzing Ambiguous
Questions in VQA [33.11688014628816]
あいまいな質問を解決することが、彼らに答える上で鍵となる。
あいまいな例のデータセットを作成し、それらが対処する基礎的な質問によって回答をグループ化し、各グループに対する質問を言い換えてあいまいさを減らします。
そして、自動的および人的評価により、よりあいまいな質問を生成する英語の質問生成モデルを開発する。
論文 参考訳(メタデータ) (2022-11-14T16:45:42Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Knowledgeable Dialogue Reading Comprehension on Key Turns [84.1784903043884]
MRC(Multi-choice Machine reading comprehension)は、ある項目と質問に対する候補オプションから正しい回答を選択するモデルである。
本研究は,複数回対話を行う対話型MRCに焦点を当てている。
それは2つの課題に悩まされ、答えの選択決定は、最近役に立つコモンセンスをサポートせずに行われ、マルチターンコンテキストは、かなりの無関係な情報を隠蔽する可能性がある。
論文 参考訳(メタデータ) (2020-04-29T07:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。