論文の概要: MLR: A Two-stage Conversational Query Rewriting Model with Multi-task
Learning
- arxiv url: http://arxiv.org/abs/2004.05812v1
- Date: Mon, 13 Apr 2020 08:04:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 22:58:53.844131
- Title: MLR: A Two-stage Conversational Query Rewriting Model with Multi-task
Learning
- Title(参考訳): MLR:マルチタスク学習を用いた2段階会話クエリ書き換えモデル
- Authors: Shuangyong Song, Chao Wang, Qianqian Xie, Xinxing Zu, Huan Chen,
Haiqing Chen
- Abstract要約: 本稿では,シーケンスラベリングとクエリリライトのマルチタスクモデルであるMLRを提案する。
MLRは、マルチターンの会話クエリを単一のターンクエリに再構成し、ユーザの真の意図を簡潔に伝達する。
モデルをトレーニングするために,新しい中国語クエリ書き換えデータセットを構築し,その上で実験を行う。
- 参考スコア(独自算出の注目度): 16.88648782206587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational context understanding aims to recognize the real intention of
user from the conversation history, which is critical for building the dialogue
system. However, the multi-turn conversation understanding in open domain is
still quite challenging, which requires the system extracting the important
information and resolving the dependencies in contexts among a variety of open
topics. In this paper, we propose the conversational query rewriting model -
MLR, which is a Multi-task model on sequence Labeling and query Rewriting. MLR
reformulates the multi-turn conversational queries into a single turn query,
which conveys the true intention of users concisely and alleviates the
difficulty of the multi-turn dialogue modeling. In the model, we formulate the
query rewriting as a sequence generation problem and introduce word category
information via the auxiliary word category label predicting task. To train our
model, we construct a new Chinese query rewriting dataset and conduct
experiments on it. The experimental results show that our model outperforms
compared models, and prove the effectiveness of the word category information
in improving the rewriting performance.
- Abstract(参考訳): 会話の文脈理解は、対話システム構築に不可欠である会話履歴からユーザの本当の意図を認識することを目的としている。
しかし、オープンドメインでのマルチターン会話理解は依然として非常に困難であり、システムは重要な情報を抽出し、様々なオープントピックのコンテキストにおける依存関係を解決する必要がある。
本稿では,シーケンスラベリングとクエリリライトに関するマルチタスクモデルである対話型クエリリライトモデルmlrを提案する。
MLRは、マルチターン対話クエリを単一のターンクエリに再構成し、ユーザの真の意図を簡潔に伝え、マルチターン対話モデリングの難しさを軽減する。
モデルでは、クエリ書き換えをシーケンス生成問題として定式化し、補助単語カテゴリラベル予測タスクを介して単語カテゴリ情報を導入する。
モデルをトレーニングするために,新しい中国語クエリ書き換えデータセットを構築し,実験を行う。
実験の結果,本モデルは比較モデルよりも優れており,書き直し性能を向上させる上での単語カテゴリ情報の有効性が証明された。
関連論文リスト
- IRLab@iKAT24: Learned Sparse Retrieval with Multi-aspect LLM Query Generation for Conversational Search [6.974395116689502]
iKAT 2024は、対話アシスタントの進化に焦点を当て、対話と応答をパーソナライズされたユーザー知識から適応することができる。
このトラックには、Personal Textual Knowledge Base(PTKB)と会話型AIタスク(通訳ランキングや応答生成など)が組み込まれている。
論文 参考訳(メタデータ) (2024-11-22T05:18:35Z) - Aligning Query Representation with Rewritten Query and Relevance Judgments in Conversational Search [32.35446999027349]
我々は、より優れたクエリ表現モデルをトレーニングするために、リライトされたクエリと会話検索データの関連判断の両方を活用する。
提案したモデル --Query Representation Alignment Conversational Retriever(QRACDR)は、8つのデータセットでテストされる。
論文 参考訳(メタデータ) (2024-07-29T17:14:36Z) - Query-oriented Data Augmentation for Session Search [71.84678750612754]
本稿では,検索ログの強化とモデリングの強化を目的としたクエリ指向データ拡張を提案する。
検索コンテキストの最も重要な部分を変更することで補足的なトレーニングペアを生成する。
我々は、現在のクエリを変更するためのいくつかの戦略を開発し、その結果、様々な難易度で新しいトレーニングデータを得る。
論文 参考訳(メタデータ) (2024-07-04T08:08:33Z) - Generating Multi-Aspect Queries for Conversational Search [6.974395116689502]
同じ検索モデルでは,nDCG@3で1回以上のリライトクエリが85%向上することを示す。
本稿ではMQ4CSと呼ばれるマルチアスペクトクエリ生成・検索フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-28T10:40:22Z) - Evaluating Large Language Models in Semantic Parsing for Conversational
Question Answering over Knowledge Graphs [6.869834883252353]
本稿では,この課題に対して事前訓練を受けていない大規模言語モデルの性能を評価する。
その結果,大規模言語モデルでは対話からグラフクエリを生成することができることがわかった。
論文 参考訳(メタデータ) (2024-01-03T12:28:33Z) - SSP: Self-Supervised Post-training for Conversational Search [63.28684982954115]
本稿では,対話型検索モデルを効率的に初期化するための3つの自己教師型タスクを備えた学習後パラダイムであるフルモデル(モデル)を提案する。
提案手法の有効性を検証するために,CAsT-19 と CAsT-20 の2つのベンチマークデータセットを用いて,会話検索タスクにモデルにより訓練後の会話エンコーダを適用した。
論文 参考訳(メタデータ) (2023-07-02T13:36:36Z) - End-to-end Knowledge Retrieval with Multi-modal Queries [50.01264794081951]
ReMuQは、テキストと画像のクエリからコンテンツを統合することで、大規模なコーパスから知識を取得するシステムを必要とする。
本稿では,入力テキストや画像を直接処理し,関連する知識をエンドツーエンドで検索する検索モデルReViz'を提案する。
ゼロショット設定下での2つのデータセットの検索において,優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-01T08:04:12Z) - Conversational Query Rewriting with Self-supervised Learning [36.392717968127016]
Conversational Query Rewriting (CQR) は、会話クエリを自己完結した発話に明示的に書き換えることによって、マルチターン対話を単一ターン問題に単純化することを目的としている。
既存のアプローチは、アノテートに労働集約的な大規模な教師付きトレーニングデータに依存している。
我々は,人間のアノテーションを必要としない自己教師付き学習により,大規模CQRデータセットを自動構築することを提案する。
論文 参考訳(メタデータ) (2021-02-09T08:57:53Z) - Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension [49.92173751203827]
マルチターンダイアログでは、発話が文の完全な形を取るとは限らない。
読み解きの質問に答えるモデルの能力を検討し、応答生成性能の向上を提案する。
論文 参考訳(メタデータ) (2020-12-14T10:58:01Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - Query Resolution for Conversational Search with Limited Supervision [63.131221660019776]
本稿では,双方向トランスフォーマに基づくニューラルクエリ解決モデルQuReTeCを提案する。
我々はQuReTeCが最先端モデルより優れており、また、QuReTeCのトレーニングに必要な人為的なデータ量を大幅に削減するために、我々の遠隔監視手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-05-24T11:37:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。