論文の概要: Reinforcement Learning from Reformulations in Conversational Question
Answering over Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2105.04850v1
- Date: Tue, 11 May 2021 08:08:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 13:53:07.664428
- Title: Reinforcement Learning from Reformulations in Conversational Question
Answering over Knowledge Graphs
- Title(参考訳): 知識グラフを用いた対話型質問応答における改革からの強化学習
- Authors: Magdalena Kaiser, Rishiraj Saha Roy, Gerhard Weikum
- Abstract要約: 本研究では,質問や修正の会話の流れから学習できる強化学習モデル「ConQUER」を提案する。
実験では、CONQUERが騒々しい報酬信号から会話の質問に答えることに成功したことが示されています。
- 参考スコア(独自算出の注目度): 28.507683735633464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rise of personal assistants has made conversational question answering
(ConvQA) a very popular mechanism for user-system interaction. State-of-the-art
methods for ConvQA over knowledge graphs (KGs) can only learn from crisp
question-answer pairs found in popular benchmarks. In reality, however, such
training data is hard to come by: users would rarely mark answers explicitly as
correct or wrong. In this work, we take a step towards a more natural learning
paradigm - from noisy and implicit feedback via question reformulations. A
reformulation is likely to be triggered by an incorrect system response,
whereas a new follow-up question could be a positive signal on the previous
turn's answer. We present a reinforcement learning model, termed CONQUER, that
can learn from a conversational stream of questions and reformulations. CONQUER
models the answering process as multiple agents walking in parallel on the KG,
where the walks are determined by actions sampled using a policy network. This
policy network takes the question along with the conversational context as
inputs and is trained via noisy rewards obtained from the reformulation
likelihood. To evaluate CONQUER, we create and release ConvRef, a benchmark
with about 11k natural conversations containing around 205k reformulations.
Experiments show that CONQUER successfully learns to answer conversational
questions from noisy reward signals, significantly improving over a
state-of-the-art baseline.
- Abstract(参考訳): パーソナルアシスタントの台頭により,会話型質問応答(ConvQA)がユーザ・システムインタラクションの非常に一般的なメカニズムとなった。
知識グラフ (KGs) 上のConvQAの最先端の手法は、人気のあるベンチマークで見られる質問と回答のペアからしか学べない。
しかし実際には、そのようなトレーニングデータは入手が難しい。ユーザは、答えを正しくも正しくも、明示的にマークすることはめったにない。
この研究では、より自然な学習パラダイムに向けて、質問の修正を通じてノイズや暗黙のフィードバックから一歩踏み出します。
再編成は誤ったシステム応答によって引き起こされる可能性が高いが、新しいフォローアップ質問は前のターンの答えにポジティブなシグナルとなる可能性がある。
本研究では,質問や修正の会話の流れから学習できる強化学習モデル「ConQUER」を提案する。
克服プロセスは、複数のエージェントがkg上で並行して歩くようにモデル化され、そこではポリシーネットワークを用いてサンプル化されたアクションによってウォークが決定される。
この政策ネットワークは、その質問と会話の文脈を入力とし、再構成可能性から得られたノイズの多い報酬を通じて訓練する。
CONQUERを評価するために、約205kの修正を含む1万1千の自然な会話を持つベンチマークであるConvRefを作成し、リリースする。
実験の結果、ConQUERはノイズの多い報酬信号から会話の質問に答えることに成功し、最先端のベースラインよりも大幅に改善された。
関連論文リスト
- Conversational Question Answering with Reformulations over Knowledge Graph [48.581924841203325]
ConvQAの最先端の手法は、しばしば難解な問合せに苦労する。
本稿では,ConvQAの性能向上を目的とした強化学習モデルであるCornNetを提案する。
CornNetは、人間の書き直しと教師モデルの出力を模倣する学生モデルを用いて質問表現を学習する。
論文 参考訳(メタデータ) (2023-12-27T00:03:05Z) - Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - Answering Ambiguous Questions via Iterative Prompting [84.3426020642704]
オープンドメインの質問応答では、質問のあいまいさのため、複数の妥当な回答が存在する可能性がある。
ひとつのアプローチは、すべての有効な回答を直接予測することですが、これは、妥当性と多様性のバランスに苦労する可能性があります。
本稿では,あいまいな疑問に答える既存手法の欠陥に対処するため,AmbigPromptを提案する。
論文 参考訳(メタデータ) (2023-07-08T04:32:17Z) - Answering Unanswered Questions through Semantic Reformulations in Spoken
QA [20.216161323866867]
Spoken Question Answering (QA) は音声アシスタントの重要な機能であり、通常は複数のQAシステムによって支援される。
我々は失敗したQA要求を分析し、語彙的ギャップ、命題型、複雑な構文構造、高い特異性など、主要な課題を特定する。
本稿では,3つの言語的操作(リペア,構文的再構成,一般化)による質問の書き直しと回答を容易にするセマンティック質問修正(SURF)モデルを提案する。
論文 参考訳(メタデータ) (2023-05-27T07:19:27Z) - Reinforced Question Rewriting for Conversational Question Answering [25.555372505026526]
対話型質問を自己完結型質問に書き換えるモデルを開発した。
既存のシングルターンQAシステムを使用することで、CQAモデルをスクラッチからトレーニングすることを回避することができる。
我々は、強化学習による書き換えモデルの監督にQAフィードバックを用いることを提案する。
論文 参考訳(メタデータ) (2022-10-27T21:23:36Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - BERT-CoQAC: BERT-based Conversational Question Answering in Context [10.811729691130349]
履歴変換をシステム内に組み込むためのBERTという,パブリックに利用可能なプリトレーニング言語モデルに基づくフレームワークを紹介する。
実験の結果,我々のフレームワークはQuACリーダボードの最先端モデルと同等の性能を示した。
論文 参考訳(メタデータ) (2021-04-23T03:05:17Z) - Improving Conversational Question Answering Systems after Deployment
using Feedback-Weighted Learning [69.42679922160684]
本稿では,二元的ユーザフィードバックを用いた初期教師付きシステムを改善するために,重要サンプリングに基づくフィードバック重み付き学習を提案する。
当社の作業は,実際のユーザとのインタラクションを活用し,デプロイ後の会話システムを改善する可能性を開くものだ。
論文 参考訳(メタデータ) (2020-11-01T19:50:34Z) - Towards Data Distillation for End-to-end Spoken Conversational Question
Answering [65.124088336738]
音声対話型質問応答タスク(SCQA)を提案する。
SCQAは,音声発話とテキストコーパスから複雑な対話の流れをモデル化することを目的としている。
我々の主な目的は、音声とテキストの両方で会話的な質問に対処するQAシステムを構築することである。
論文 参考訳(メタデータ) (2020-10-18T05:53:39Z) - A Wrong Answer or a Wrong Question? An Intricate Relationship between
Question Reformulation and Answer Selection in Conversational Question
Answering [15.355557454305776]
会話の文脈における質問書き直し(QR)は、この現象により多くの光を放つことができることを示す。
TREC CAsT と QuAC (CANARD) のデータセットを用いて解析を行った。
論文 参考訳(メタデータ) (2020-10-13T06:29:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。