論文の概要: Visual Question Rewriting for Increasing Response Rate
- arxiv url: http://arxiv.org/abs/2106.02257v1
- Date: Fri, 4 Jun 2021 04:46:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 05:05:52.999330
- Title: Visual Question Rewriting for Increasing Response Rate
- Title(参考訳): 応答率向上のための視覚的質問書き換え
- Authors: Jiayi Wei, Xilian Li, Yi Zhang, Xin Wang
- Abstract要約: 人からの回答率を改善するために、自然言語の質問を自動的に書き換える方法について検討する。
視覚的情報を用いて新しい質問を改善するために,視覚的質問書き換え(VQR)タスクが導入された。
- 参考スコア(独自算出の注目度): 12.700769102964088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When a human asks questions online, or when a conversational virtual agent
asks human questions, questions triggering emotions or with details might more
likely to get responses or answers. we explore how to automatically rewrite
natural language questions to improve the response rate from people. In
particular, a new task of Visual Question Rewriting(VQR) task is introduced to
explore how visual information can be used to improve the new questions. A data
set containing around 4K bland questions, attractive questions and images
triples is collected. We developed some baseline sequence to sequence models
and more advanced transformer based models, which take a bland question and a
related image as input and output a rewritten question that is expected to be
more attractive. Offline experiments and mechanical Turk based evaluations show
that it is possible to rewrite bland questions in a more detailed and
attractive way to increase the response rate, and images can be helpful.
- Abstract(参考訳): 人間がオンラインで質問したり、会話の仮想エージェントが人間の質問をしたとき、感情を誘発する質問や詳細な質問は、回答や回答を得る可能性が高くなる。
自然言語の質問を自動的に書き直して、人々の反応率を改善する方法について検討する。
特に、視覚情報がどのようにして新しい質問を改善するかを探るために、視覚質問書き換え(vqr)タスクの新たなタスクが導入された。
約4kのbland質問、魅力的な質問、画像トリプルを含むデータセットを収集する。
我々は,シーケンスモデルのためのベースラインシーケンスとより高度なトランスフォーマーモデルを開発し,bland問題と関連するイメージを入力とし,より魅力的な質問文を出力した。
オフライン実験とメカニカルタークに基づく評価は、blandの質問をより詳細かつ魅力的な方法で書き直し、応答率を高めることが可能であり、画像は有用であることを示している。
関連論文リスト
- Long-Form Answers to Visual Questions from Blind and Low Vision People [54.00665222249701]
VizWiz-LFは視覚障害者(BLV)による視覚的質問に対する長文回答のデータセットである。
LFVQAの文の機能的役割を開発し,長文回答が質問応答以上の情報を含んでいることを示す。
論文 参考訳(メタデータ) (2024-08-12T17:15:02Z) - Ask Questions with Double Hints: Visual Question Generation with Answer-awareness and Region-reference [107.53380946417003]
本稿では,応答認識と領域参照を用いた視覚的質問生成のための新しい学習パラダイムを提案する。
我々は、追加の人間のアノテーションを導入することなく、視覚的ヒントを自己学習する簡単な手法を開発した。
論文 参考訳(メタデータ) (2024-07-06T15:07:32Z) - Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Weakly Supervised Visual Question Answer Generation [2.7605547688813172]
視覚情報とキャプションから手続き的に質問応答対を合成的に生成する弱教師付き手法を提案する。
我々は,VQAデータセットの総合的な実験分析を行い,BLEUスコアのSOTA手法を著しく上回る結果を得た。
論文 参考訳(メタデータ) (2023-06-11T08:46:42Z) - Conversational QA Dataset Generation with Answer Revision [2.5838973036257458]
本稿では,一節から質問に値するフレーズを抽出し,過去の会話を考慮し,それに対応する質問を生成する新しい枠組みを提案する。
本フレームワークでは,抽出した回答を質問生成後に修正し,その回答が一致した質問に正確に一致するようにした。
論文 参考訳(メタデータ) (2022-09-23T04:05:38Z) - Unified Questioner Transformer for Descriptive Question Generation in
Goal-Oriented Visual Dialogue [0.0]
現実世界について質問できる対話型人工知能の構築は、ビジョンと言語問題における最大の課題の1つだ。
我々はUnified Questioner Transformer (UniQer) と呼ばれる新しい問合せアーキテクチャを提案する。
我々は、CLEVR Askと呼ばれる目標指向の視覚対話タスクを構築し、質問者に対して説明的質問を生成する複雑なシーンを合成する。
論文 参考訳(メタデータ) (2021-06-29T16:36:34Z) - GooAQ: Open Question Answering with Diverse Answer Types [63.06454855313667]
さまざまな回答型を持つ大規模データセットであるGooAQを紹介する。
このデータセットには500万の質問と300万の回答が含まれている。
論文 参考訳(メタデータ) (2021-04-18T05:40:39Z) - Generating Natural Questions from Images for Multimodal Assistants [4.930442416763205]
本稿では,画像の内容やメタデータを考慮した多様で意味のある質問を生成するためのアプローチを提案する。
BLEU, METEOR, ROUGE, CIDEr などの標準評価指標を用いて,本手法の評価を行った。
論文 参考訳(メタデータ) (2020-11-17T19:12:23Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。