論文の概要: Why Did the Chicken Cross the Road? Rephrasing and Analyzing Ambiguous
Questions in VQA
- arxiv url: http://arxiv.org/abs/2211.07516v2
- Date: Thu, 1 Jun 2023 19:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 20:37:51.639549
- Title: Why Did the Chicken Cross the Road? Rephrasing and Analyzing Ambiguous
Questions in VQA
- Title(参考訳): なぜ鶏は道路を渡ったのか?
VQAにおける曖昧な質問の言い直しと分析
- Authors: Elias Stengel-Eskin, Jimena Guallar-Blasco, Yi Zhou, Benjamin Van
Durme
- Abstract要約: あいまいな質問を解決することが、彼らに答える上で鍵となる。
あいまいな例のデータセットを作成し、それらが対処する基礎的な質問によって回答をグループ化し、各グループに対する質問を言い換えてあいまいさを減らします。
そして、自動的および人的評価により、よりあいまいな質問を生成する英語の質問生成モデルを開発する。
- 参考スコア(独自算出の注目度): 33.11688014628816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural language is ambiguous. Resolving ambiguous questions is key to
successfully answering them. Focusing on questions about images, we create a
dataset of ambiguous examples. We annotate these, grouping answers by the
underlying question they address and rephrasing the question for each group to
reduce ambiguity. Our analysis reveals a linguistically-aligned ontology of
reasons for ambiguity in visual questions. We then develop an English
question-generation model which we demonstrate via automatic and human
evaluation produces less ambiguous questions. We further show that the question
generation objective we use allows the model to integrate answer group
information without any direct supervision.
- Abstract(参考訳): 自然言語は曖昧である。
あいまいな質問を解決することが、答える上で鍵となる。
画像に関する質問に注目して,曖昧な例のデータセットを作成する。
私たちはこれらに注釈を付け、それらが対処する根底にある質問によって回答をグループ化し、曖昧さを減らすために各グループの質問を言い換えます。
本分析は,視覚的問題における曖昧性の理由の言語学的に整合したオントロジーを明らかにする。
そして、自動的および人的評価により、よりあいまいな質問を生成する英語の質問生成モデルを開発する。
さらに,本モデルを用いた質問生成の目的により,直接の監督なしに回答グループ情報を統合できることを示す。
関連論文リスト
- Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Gotcha! Don't trick me with unanswerable questions! Self-aligning Large
Language Models for Responding to Unknown Questions [75.78536317322616]
自己調整法は,回答を拒否するだけでなく,未知の質問の解答不能を説明できる。
我々は, LLM自体を微調整し, 未知の質問に対する応答を所望の通りに調整するために, 偏差駆動による自己計算を行い, 有資格データを選択する。
論文 参考訳(メタデータ) (2024-02-23T02:24:36Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Weakly Supervised Visual Question Answer Generation [2.7605547688813172]
視覚情報とキャプションから手続き的に質問応答対を合成的に生成する弱教師付き手法を提案する。
我々は,VQAデータセットの総合的な実験分析を行い,BLEUスコアのSOTA手法を著しく上回る結果を得た。
論文 参考訳(メタデータ) (2023-06-11T08:46:42Z) - Selectively Answering Ambiguous Questions [38.83930394700588]
我々は, サンプルモデル出力における繰り返しの定量化が, 退避時期を決定する最も信頼性の高い手法であることが判明した。
その結果,サンプリングに基づく信頼度スコアは,比較的あいまいな質問に対する回答のキャリブレーションに有効であることが示唆された。
論文 参考訳(メタデータ) (2023-05-24T01:25:38Z) - CLAM: Selective Clarification for Ambiguous Questions with Large
Language Models [37.37606905433334]
我々は,現在の SotA モデルでは,不正確な質問を提示しても,ユーザに対して明確化を求めないことを示す。
CLAMは,まずモデルを用いて曖昧な質問を検知し,不明瞭な質問が検出された場合,ユーザに対して明確化を求める。
本研究では,新しいあいまいな質問応答データセットを用いて,SotAに対して20.15パーセントの精度向上を実現していることを示す。
論文 参考訳(メタデータ) (2022-12-15T12:47:18Z) - WikiWhy: Answering and Explaining Cause-and-Effect Questions [62.60993594814305]
自然言語で答えが正しい理由を説明するために構築されたQAデータセットであるWikiWhyを紹介する。
WikiWhyには、ウィキペディアのさまざまなトピックの事実に基づいて、9000以上の「なぜ」質問回答の3つ組が含まれている。
GPT-3ベースラインは、エンドツーエンドの回答と説明条件において、人間の評価された正しさを38.7%しか達成していない。
論文 参考訳(メタデータ) (2022-10-21T17:59:03Z) - Discourse Analysis via Questions and Answers: Parsing Dependency
Structures of Questions Under Discussion [57.43781399856913]
この研究は、談話分析にQUD(Language framework of Questions Under discussion)を採用する。
我々は、文間の関係を、徹底的なきめ細かい質問とは対照的に、自由形式の質問として特徴づける。
完全文書上の質問の依存関係構造を導出する第一種QUDを開発する。
論文 参考訳(メタデータ) (2022-10-12T03:53:12Z) - Open-domain clarification question generation without question examples [4.34222556313791]
本稿では,極性(yes-no)を明確化できる問合せモデルを構築するための枠組みを提案する。
本モデルは,市販画像キャプタから情報的質問を導き出すために,期待された情報ゲイン目標を用いている。
我々は,目標志向の20質問ゲームにおいて,人間と合成者によるコミュニケーションの成功を促す質問を提示するモデルの能力を実証する。
論文 参考訳(メタデータ) (2021-10-19T07:51:54Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Rephrasing visual questions by specifying the entropy of the answer
distribution [0.0]
本稿では,質問のあいまいさを制御し,新しい課題を提案する。
視覚的質問のあいまいさは、VQAモデルによって予測される回答分布のエントロピーを用いて定義される。
我々は,質問のあいまいさを制御できるアプローチの利点を実証し,あいまいさを減らすことよりも増大が難しいという興味深い観察を行った。
論文 参考訳(メタデータ) (2020-04-10T09:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。