論文の概要: VOGUE: Answer Verbalization through Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2106.13316v2
- Date: Mon, 28 Jun 2021 16:12:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 12:01:06.842536
- Title: VOGUE: Answer Verbalization through Multi-Task Learning
- Title(参考訳): vogue: マルチタスク学習による答えの言語化
- Authors: Endri Kacupaj, Shyamnath Premnadh, Kuldeep Singh, Jens Lehmann, Maria
Maleshkova
- Abstract要約: マルチタスクに基づく応答言語化フレームワークVOGUE(VerbalizationOuGh mUlti-task lEarning)を提案する。
我々のフレームワークは、質問やクエリを同時に入力として使用することで、結果を生成することができる。
既存データセットの枠組みを評価した結果,BLEUとMETEORの両スコアにおいて,現在のベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 4.882444194224553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, there have been significant developments in Question
Answering over Knowledge Graphs (KGQA). Despite all the notable advancements,
current KGQA systems only focus on answer generation techniques and not on
answer verbalization. However, in real-world scenarios (e.g., voice assistants
such as Alexa, Siri, etc.), users prefer verbalized answers instead of a
generated response. This paper addresses the task of answer verbalization for
(complex) question answering over knowledge graphs. In this context, we propose
a multi-task-based answer verbalization framework: VOGUE (Verbalization thrOuGh
mUlti-task lEarning). The VOGUE framework attempts to generate a verbalized
answer using a hybrid approach through a multi-task learning paradigm. Our
framework can generate results based on using questions and queries as inputs
concurrently. VOGUE comprises four modules that are trained simultaneously
through multi-task learning. We evaluate our framework on existing datasets for
answer verbalization, and it outperforms all current baselines on both BLEU and
METEOR scores.
- Abstract(参考訳): 近年,知識グラフ (KGQA) に対する質問回答 (Qanguage Answering over Knowledge Graphs) が著しく進展している。
全ての顕著な進歩にもかかわらず、現在のKGQAシステムは回答生成技術にのみ焦点を絞っている。
しかし、現実世界のシナリオでは(例えば、AlexaやSiriなどの音声アシスタント)。
ユーザは、生成した応答ではなく、言葉による回答を好む。
本稿では,知識グラフ上の(複雑な)質問応答に対する動詞化の課題に対処する。
そこで本研究では,マルチタスクに基づく応答言語化フレームワークVOGUE(Verbalization thrOuGh mUlti-task lEarning)を提案する。
VOGUEフレームワークは、マルチタスク学習パラダイムを通じてハイブリッドアプローチを用いて、言語化された回答を生成する。
本フレームワークは,質問と問合せを同時入力として,結果を生成することができる。
VOGUEは4つのモジュールから構成され、同時にマルチタスク学習によって訓練される。
我々は,既存データセットの枠組みを評価し,BLEUとMETEORのスコアにおいて,現在のベースラインを上回ります。
関連論文リスト
- Learning When to Retrieve, What to Rewrite, and How to Respond in Conversational QA [16.1357049130957]
シングルターンSELF-RAGフレームワークを構築し,会話設定のためのSELF-multi-RAGを提案する。
SELF-multi-RAGは、関連するパスの検索に関して、シングルターン変種よりも改善された機能を示す。
論文 参考訳(メタデータ) (2024-09-23T20:05:12Z) - Language Guided Visual Question Answering: Elevate Your Multimodal
Language Model Using Knowledge-Enriched Prompts [54.072432123447854]
視覚的質問応答(VQA)は、画像に関する質問に答えるタスクである。
疑問に答えるには、常識知識、世界知識、イメージに存在しないアイデアや概念についての推論が必要である。
本稿では,論理文や画像キャプション,シーングラフなどの形式で言語指導(LG)を用いて,より正確に質問に答えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T03:54:11Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - Answering Ambiguous Questions via Iterative Prompting [84.3426020642704]
オープンドメインの質問応答では、質問のあいまいさのため、複数の妥当な回答が存在する可能性がある。
ひとつのアプローチは、すべての有効な回答を直接予測することですが、これは、妥当性と多様性のバランスに苦労する可能性があります。
本稿では,あいまいな疑問に答える既存手法の欠陥に対処するため,AmbigPromptを提案する。
論文 参考訳(メタデータ) (2023-07-08T04:32:17Z) - Semantic Parsing for Conversational Question Answering over Knowledge
Graphs [63.939700311269156]
本研究では,ユーザの質問にSparqlパースとアノテートし,システム回答が実行結果に対応するデータセットを開発する。
本稿では,2つの意味解析手法を提案し,その課題を強調した。
私たちのデータセットとモデルはhttps://github.com/Edinburgh/SPICE.orgで公開されています。
論文 参考訳(メタデータ) (2023-01-28T14:45:11Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - An Answer Verbalization Dataset for Conversational Question Answerings
over Knowledge Graphs [9.979689965471428]
本稿では,既存のConvQAデータセットを言語化された回答で拡張することによって,最先端技術に寄与する。
5つのシーケンス・ツー・シーケンスモデルを用いて,文法的正しさを維持しながら応答生成実験を行った。
論文 参考訳(メタデータ) (2022-08-13T21:21:28Z) - Answer-Me: Multi-Task Open-Vocabulary Visual Question Answering [43.07139534653485]
タスク対応マルチタスクフレームワークAnswer-Meを提案する。
マルチタスクである視覚言語ジョイントモデルを事前訓練する。
その結果、最先端のパフォーマンス、ゼロショットの一般化、忘れることへの堅牢性、競争力のあるシングルタスクの結果が示された。
論文 参考訳(メタデータ) (2022-05-02T14:53:13Z) - End-to-end Spoken Conversational Question Answering: Task, Dataset and
Model [92.18621726802726]
音声による質問応答では、システムは関連する音声書き起こしの中に連続したテキストスパンからの質問に答えるように設計されている。
本稿では,複雑な対話フローをモデル化することを目的とした音声対話型質問応答タスク(SCQA)を提案する。
本研究の目的は,音声記録に基づく対話型質問に対処するシステムを構築することであり,情報収集システムによる様々なモダリティからより多くの手がかりを提供する可能性を探ることである。
論文 参考訳(メタデータ) (2022-04-29T17:56:59Z) - ParaQA: A Question Answering Dataset with Paraphrase Responses for
Single-Turn Conversation [5.087932295628364]
ParaQAは知識グラフ(KG)上の1ターン会話のための複数のパラフレーズ応答を持つデータセットである
データセットは半自動的なフレームワークを使って、バックトランスレーションのようなテクニックを使って、さまざまな回答のパラフレージングを生成する。
論文 参考訳(メタデータ) (2021-03-13T18:53:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。