論文の概要: MLR: A Two-stage Conversational Query Rewriting Model with Multi-task
Learning
- arxiv url: http://arxiv.org/abs/2004.05812v1
- Date: Mon, 13 Apr 2020 08:04:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 22:58:53.844131
- Title: MLR: A Two-stage Conversational Query Rewriting Model with Multi-task
Learning
- Title(参考訳): MLR:マルチタスク学習を用いた2段階会話クエリ書き換えモデル
- Authors: Shuangyong Song, Chao Wang, Qianqian Xie, Xinxing Zu, Huan Chen,
Haiqing Chen
- Abstract要約: 本稿では,シーケンスラベリングとクエリリライトのマルチタスクモデルであるMLRを提案する。
MLRは、マルチターンの会話クエリを単一のターンクエリに再構成し、ユーザの真の意図を簡潔に伝達する。
モデルをトレーニングするために,新しい中国語クエリ書き換えデータセットを構築し,その上で実験を行う。
- 参考スコア(独自算出の注目度): 16.88648782206587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational context understanding aims to recognize the real intention of
user from the conversation history, which is critical for building the dialogue
system. However, the multi-turn conversation understanding in open domain is
still quite challenging, which requires the system extracting the important
information and resolving the dependencies in contexts among a variety of open
topics. In this paper, we propose the conversational query rewriting model -
MLR, which is a Multi-task model on sequence Labeling and query Rewriting. MLR
reformulates the multi-turn conversational queries into a single turn query,
which conveys the true intention of users concisely and alleviates the
difficulty of the multi-turn dialogue modeling. In the model, we formulate the
query rewriting as a sequence generation problem and introduce word category
information via the auxiliary word category label predicting task. To train our
model, we construct a new Chinese query rewriting dataset and conduct
experiments on it. The experimental results show that our model outperforms
compared models, and prove the effectiveness of the word category information
in improving the rewriting performance.
- Abstract(参考訳): 会話の文脈理解は、対話システム構築に不可欠である会話履歴からユーザの本当の意図を認識することを目的としている。
しかし、オープンドメインでのマルチターン会話理解は依然として非常に困難であり、システムは重要な情報を抽出し、様々なオープントピックのコンテキストにおける依存関係を解決する必要がある。
本稿では,シーケンスラベリングとクエリリライトに関するマルチタスクモデルである対話型クエリリライトモデルmlrを提案する。
MLRは、マルチターン対話クエリを単一のターンクエリに再構成し、ユーザの真の意図を簡潔に伝え、マルチターン対話モデリングの難しさを軽減する。
モデルでは、クエリ書き換えをシーケンス生成問題として定式化し、補助単語カテゴリラベル予測タスクを介して単語カテゴリ情報を導入する。
モデルをトレーニングするために,新しい中国語クエリ書き換えデータセットを構築し,実験を行う。
実験の結果,本モデルは比較モデルよりも優れており,書き直し性能を向上させる上での単語カテゴリ情報の有効性が証明された。
関連論文リスト
- Effective and Efficient Conversation Retrieval for Dialogue State
Tracking with Implicit Text Summaries [51.11997829609478]
LLM (Large Language Models) を用いたDST (Few-shot dialogue state tracking) では,会話検索を効果的かつ効率的に行うことで,学習の迅速化を図っている。
従来は検索キーやクエリとして生の対話コンテキストを使用していた。
会話のテキスト要約に基づいて会話検索を行う。
LLMに基づく会話要約器がクエリとキー生成に採用され、効果的な内部製品探索が可能となる。
論文 参考訳(メタデータ) (2024-02-20T14:31:17Z) - Evaluating Large Language Models in Semantic Parsing for Conversational
Question Answering over Knowledge Graphs [6.869834883252353]
本稿では,この課題に対して事前訓練を受けていない大規模言語モデルの性能を評価する。
その結果,大規模言語モデルでは対話からグラフクエリを生成することができることがわかった。
論文 参考訳(メタデータ) (2024-01-03T12:28:33Z) - SSP: Self-Supervised Post-training for Conversational Search [63.28684982954115]
本稿では,対話型検索モデルを効率的に初期化するための3つの自己教師型タスクを備えた学習後パラダイムであるフルモデル(モデル)を提案する。
提案手法の有効性を検証するために,CAsT-19 と CAsT-20 の2つのベンチマークデータセットを用いて,会話検索タスクにモデルにより訓練後の会話エンコーダを適用した。
論文 参考訳(メタデータ) (2023-07-02T13:36:36Z) - End-to-end Knowledge Retrieval with Multi-modal Queries [50.01264794081951]
ReMuQは、テキストと画像のクエリからコンテンツを統合することで、大規模なコーパスから知識を取得するシステムを必要とする。
本稿では,入力テキストや画像を直接処理し,関連する知識をエンドツーエンドで検索する検索モデルReViz'を提案する。
ゼロショット設定下での2つのデータセットの検索において,優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-01T08:04:12Z) - Utterance Rewriting with Contrastive Learning in Multi-turn Dialogue [22.103162555263143]
比較学習とマルチタスク学習を導入し、問題を共同でモデル化する。
提案手法は,複数の公開データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-22T10:13:27Z) - Conversational Query Rewriting with Self-supervised Learning [36.392717968127016]
Conversational Query Rewriting (CQR) は、会話クエリを自己完結した発話に明示的に書き換えることによって、マルチターン対話を単一ターン問題に単純化することを目的としている。
既存のアプローチは、アノテートに労働集約的な大規模な教師付きトレーニングデータに依存している。
我々は,人間のアノテーションを必要としない自己教師付き学習により,大規模CQRデータセットを自動構築することを提案する。
論文 参考訳(メタデータ) (2021-02-09T08:57:53Z) - Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension [49.92173751203827]
マルチターンダイアログでは、発話が文の完全な形を取るとは限らない。
読み解きの質問に答えるモデルの能力を検討し、応答生成性能の向上を提案する。
論文 参考訳(メタデータ) (2020-12-14T10:58:01Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - Do Response Selection Models Really Know What's Next? Utterance
Manipulation Strategies for Multi-turn Response Selection [11.465266718370536]
本研究では,検索に基づく対話システムにおけるユーザとシステム発話履歴の最適応答を選択するタスクについて検討する。
この問題に対処するための発話操作戦略(UMS)を提案する。
UMSは、ダイアログコヒーレンスを維持するための応答選択モデルを支援するいくつかの戦略(挿入、削除、検索)から構成される。
論文 参考訳(メタデータ) (2020-09-10T07:39:05Z) - Query Resolution for Conversational Search with Limited Supervision [63.131221660019776]
本稿では,双方向トランスフォーマに基づくニューラルクエリ解決モデルQuReTeCを提案する。
我々はQuReTeCが最先端モデルより優れており、また、QuReTeCのトレーニングに必要な人為的なデータ量を大幅に削減するために、我々の遠隔監視手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-05-24T11:37:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。