論文の概要: Learning to Relate to Previous Turns in Conversational Search
- arxiv url: http://arxiv.org/abs/2306.02553v1
- Date: Mon, 5 Jun 2023 03:00:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 17:07:30.024255
- Title: Learning to Relate to Previous Turns in Conversational Search
- Title(参考訳): 会話検索における前向き転倒関係の学習
- Authors: Fengran Mo, Jian-Yun Nie, Kaiyu Huang, Kelong Mao, Yutao Zhu, Peng Li,
Yang Liu
- Abstract要約: 検索効率を改善する効果的な方法は、現在のクエリを履歴クエリで拡張することである。
本稿では,現在のクエリに有用な履歴クエリを選択するための新しい手法を提案する。
- 参考スコア(独自算出の注目度): 26.931718474500652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conversational search allows a user to interact with a search system in
multiple turns. A query is strongly dependent on the conversation context. An
effective way to improve retrieval effectiveness is to expand the current query
with historical queries. However, not all the previous queries are related to,
and useful for expanding the current query. In this paper, we propose a new
method to select relevant historical queries that are useful for the current
query. To cope with the lack of labeled training data, we use a pseudo-labeling
approach to annotate useful historical queries based on their impact on the
retrieval results. The pseudo-labeled data are used to train a selection model.
We further propose a multi-task learning framework to jointly train the
selector and the retriever during fine-tuning, allowing us to mitigate the
possible inconsistency between the pseudo labels and the changed retriever.
Extensive experiments on four conversational search datasets demonstrate the
effectiveness and broad applicability of our method compared with several
strong baselines.
- Abstract(参考訳): 会話検索により、ユーザは複数のターンで検索システムと対話できる。
クエリは会話コンテキストに大きく依存します。
検索効率を改善する効果的な方法は、現在のクエリを履歴クエリで拡張することである。
しかし、以前のクエリがすべて関連しているわけではなく、現在のクエリを拡張するのに役立つ。
本稿では,現在のクエリに有用な履歴クエリを選択するための新しい手法を提案する。
ラベル付きトレーニングデータの欠如に対処するために,検索結果への影響に基づいて有用な履歴クエリを注釈付けする擬似ラベル手法を用いる。
擬似ラベルデータは、選択モデルをトレーニングするために使用される。
さらに,微調整中にセレクタとレトリバーを共同で学習するマルチタスク学習フレームワークを提案し,擬似ラベルと変更レトリバーとの一貫性を緩和する。
4つの対話型検索データセットに対する広範囲な実験により,提案手法の有効性と適用性を示した。
関連論文リスト
- Aligning Query Representation with Rewritten Query and Relevance Judgments in Conversational Search [32.35446999027349]
我々は、より優れたクエリ表現モデルをトレーニングするために、リライトされたクエリと会話検索データの関連判断の両方を活用する。
提案したモデル --Query Representation Alignment Conversational Retriever(QRACDR)は、8つのデータセットでテストされる。
論文 参考訳(メタデータ) (2024-07-29T17:14:36Z) - Query-oriented Data Augmentation for Session Search [71.84678750612754]
本稿では,検索ログの強化とモデリングの強化を目的としたクエリ指向データ拡張を提案する。
検索コンテキストの最も重要な部分を変更することで補足的なトレーニングペアを生成する。
我々は、現在のクエリを変更するためのいくつかの戦略を開発し、その結果、様々な難易度で新しいトレーニングデータを得る。
論文 参考訳(メタデータ) (2024-07-04T08:08:33Z) - A Surprisingly Simple yet Effective Multi-Query Rewriting Method for Conversational Passage Retrieval [14.389703823471574]
本稿では,複数のクエリを生成するためのニューラルクエリリライターを提案する。
ビーム検索アルゴリズムの動作方法を活用し、追加コストなしで複数のクエリリライトを生成できます。
論文 参考訳(メタデータ) (2024-06-27T07:43:03Z) - Database-Augmented Query Representation for Information Retrieval [59.57065228857247]
データベース拡張クエリ表現(DAQu)と呼ばれる新しい検索フレームワークを提案する。
DAQuは、元のクエリを複数のテーブルにまたがるさまざまな(クエリ関連の)メタデータで拡張する。
リレーショナルデータベースのメタデータを組み込む様々な検索シナリオにおいてDAQuを検証する。
論文 参考訳(メタデータ) (2024-06-23T05:02:21Z) - Toward Conversational Agents with Context and Time Sensitive Long-term Memory [8.085414868117917]
最近まで、RAGに関するほとんどの研究は、ウィキペディアのような巨大なテキストデータベースからの情報検索に重点を置いてきた。
我々は,静的なデータベース検索と比較して,長文の対話データからの効果的な検索は2つの問題に直面していると論じる。
我々は、最近の長文でシミュレートされた会話のデータセットの上に構築された、あいまいで時間に基づく質問の新しいデータセットを生成する。
論文 参考訳(メタデータ) (2024-05-29T18:19:46Z) - Effective and Efficient Conversation Retrieval for Dialogue State Tracking with Implicit Text Summaries [48.243879779374836]
LLM (Large Language Models) を用いたDST (Few-shot dialogue state tracking) では,会話検索を効果的かつ効率的に行うことで,学習の迅速化を図っている。
従来は検索キーやクエリとして生の対話コンテキストを使用していた。
会話のテキスト要約に基づいて会話検索を行う。
LLMに基づく会話要約器がクエリとキー生成に採用され、効果的な内部製品探索が可能となる。
論文 参考訳(メタデータ) (2024-02-20T14:31:17Z) - ConvGQR: Generative Query Reformulation for Conversational Search [37.54018632257896]
ConvGQRは、生成事前訓練された言語モデルに基づいて会話クエリを再構成する新しいフレームワークである。
本稿では,クエリ再構成と検索の両方を最適化する知識注入機構を提案する。
論文 参考訳(メタデータ) (2023-05-25T01:45:06Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z) - CAPSTONE: Curriculum Sampling for Dense Retrieval with Document
Expansion [68.19934563919192]
本稿では,学習中に擬似クエリを利用して,生成したクエリと実際のクエリとの関係を徐々に向上させるカリキュラムサンプリング戦略を提案する。
ドメイン内およびドメイン外両方のデータセットに対する実験結果から,本手法が従来の高密度検索モデルより優れていることが示された。
論文 参考訳(メタデータ) (2022-12-18T15:57:46Z) - Query Resolution for Conversational Search with Limited Supervision [63.131221660019776]
本稿では,双方向トランスフォーマに基づくニューラルクエリ解決モデルQuReTeCを提案する。
我々はQuReTeCが最先端モデルより優れており、また、QuReTeCのトレーニングに必要な人為的なデータ量を大幅に削減するために、我々の遠隔監視手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-05-24T11:37:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。