論文の概要: Query Understanding via Intent Description Generation
- arxiv url: http://arxiv.org/abs/2008.10889v1
- Date: Tue, 25 Aug 2020 08:56:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 03:42:39.262822
- Title: Query Understanding via Intent Description Generation
- Title(参考訳): インテント記述生成によるクエリ理解
- Authors: Ruqing Zhang, Jiafeng Guo, Yixing Fan, Yanyan Lan, and Xueqi Cheng
- Abstract要約: 問合せ理解のためのQ2ID(Query-to-Intent-Description)タスクを提案する。
クエリとその記述を利用してドキュメントの関連性を計算する既存のランキングタスクとは異なり、Q2IDは自然言語のインテント記述を生成するための逆タスクである。
Q2IDタスクにおける複数の最先端生成モデルとの比較により,本モデルの有効性を実証する。
- 参考スコア(独自算出の注目度): 75.64800976586771
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Query understanding is a fundamental problem in information retrieval (IR),
which has attracted continuous attention through the past decades. Many
different tasks have been proposed for understanding users' search queries,
e.g., query classification or query clustering. However, it is not that precise
to understand a search query at the intent class/cluster level due to the loss
of many detailed information. As we may find in many benchmark datasets, e.g.,
TREC and SemEval, queries are often associated with a detailed description
provided by human annotators which clearly describes its intent to help
evaluate the relevance of the documents. If a system could automatically
generate a detailed and precise intent description for a search query, like
human annotators, that would indicate much better query understanding has been
achieved. In this paper, therefore, we propose a novel
Query-to-Intent-Description (Q2ID) task for query understanding. Unlike those
existing ranking tasks which leverage the query and its description to compute
the relevance of documents, Q2ID is a reverse task which aims to generate a
natural language intent description based on both relevant and irrelevant
documents of a given query. To address this new task, we propose a novel
Contrastive Generation model, namely CtrsGen for short, to generate the intent
description by contrasting the relevant documents with the irrelevant documents
given a query. We demonstrate the effectiveness of our model by comparing with
several state-of-the-art generation models on the Q2ID task. We discuss the
potential usage of such Q2ID technique through an example application.
- Abstract(参考訳): 問合せ理解は情報検索(IR)における根本的な問題であり、過去数十年にわたって継続的な注目を集めてきた。
クエリ分類やクエリクラスタリングなど,ユーザの検索クエリを理解するために,さまざまなタスクが提案されている。
しかし、多くの詳細な情報が失われているため、意図クラス/クラスタレベルでの検索クエリを理解することはそれほど正確ではない。
TRECやSemEvalといった多くのベンチマークデータセットに見られるように、クエリは、ドキュメントの関連性を評価するための意図を明確に記述する人間のアノテーションによって提供される詳細な記述と関連付けられていることが多い。
もしシステムが人間のアノテータのような検索クエリの詳細なインテント記述を自動的に生成できれば、より優れたクエリ理解が達成されたことを示すだろう。
そこで本稿では,クエリ理解のための新しいQ2IDタスクを提案する。
クエリとその記述を利用してドキュメントの関連性を計算する既存のランキングタスクとは異なり、Q2IDは、あるクエリの関連性および非関連性の両方に基づいて自然言語のインテント記述を生成することを目的とした逆タスクである。
そこで本稿では,この課題に対処するために,クエリが与えられた文書と無関係な文書を対比してインテント記述を生成するための新しいコントラスト生成モデルctrsgenを提案する。
Q2IDタスクにおける複数の最先端生成モデルとの比較により,本モデルの有効性を示す。
本稿では、実例によるQ2ID手法の可能性について論じる。
関連論文リスト
- QUIDS: Query Intent Generation via Dual Space Modeling [12.572815037915348]
本稿では,検索意図の理解を説明するために,返却文書における意味的関連性および無関係情報を利用する二重空間モデルを提案する。
提案手法は高品質な問合せインテント記述を生成し,既存の手法と最先端の問合せベース要約手法を比較検討する。
論文 参考訳(メタデータ) (2024-10-16T09:28:58Z) - Disentangling Questions from Query Generation for Task-Adaptive Retrieval [22.86406485412172]
本研究では,BeIRベンチマークで表現された広範囲な検索意図に適応するクエリジェネレータEGGを提案する。
提案手法は,従来よりも47倍小さいクエリジェネレータを用いて,探索対象の少ない4つのタスクにおいて,ベースラインと既存モデルの性能を向上する。
論文 参考訳(メタデータ) (2024-09-25T02:53:27Z) - QueryBuilder: Human-in-the-Loop Query Development for Information Retrieval [12.543590253664492]
我々は、$textitQueryBuilder$という、インタラクティブな新しいシステムを提示します。
初心者の英語を話すユーザは、少量の労力でクエリを作成できる。
ユーザの情報要求に応じた言語間情報検索クエリを迅速に開発する。
論文 参考訳(メタデータ) (2024-09-07T00:46:58Z) - Understanding the User: An Intent-Based Ranking Dataset [2.6145315573431214]
本稿では,このようなデータセットを付加して,アノテートなクエリ記述を付加する手法を提案する。
我々の手法は、個々のクエリにおける暗黙の意図を分析し、理解するために最先端のLCMを利用することである。
キーセマンティック要素を抽出することにより、これらのクエリについて詳細に、文脈的にリッチな記述を構築する。
論文 参考訳(メタデータ) (2024-08-30T08:40:59Z) - BRIGHT: A Realistic and Challenging Benchmark for Reasoning-Intensive Retrieval [54.54576644403115]
多くの複雑な実世界のクエリは、関連する文書を特定するために詳細な推論を必要とする。
BRIGHTは、関係する文書を検索するために、集中的推論を必要とする最初のテキスト検索ベンチマークである。
私たちのデータセットは、経済学、心理学、数学、コーディングなど、さまざまな領域にまたがる1,384の現実世界のクエリで構成されています。
論文 参考訳(メタデータ) (2024-07-16T17:58:27Z) - Improving Topic Relevance Model by Mix-structured Summarization and LLM-based Data Augmentation [16.170841777591345]
Dianpingのようなほとんどのソーシャル検索シナリオでは、検索関連性のモデリングは常に2つの課題に直面している。
まず、クエリベースの要約と、クエリなしで文書の要約をトピック関連モデルの入力として取り上げる。
そこで我々は,大規模言語モデル(LLM)の言語理解と生成能力を利用して,既存のトレーニングデータにおけるクエリやドキュメントからのクエリを書き換え,生成する。
論文 参考訳(メタデータ) (2024-04-03T10:05:47Z) - CAPSTONE: Curriculum Sampling for Dense Retrieval with Document
Expansion [68.19934563919192]
本稿では,学習中に擬似クエリを利用して,生成したクエリと実際のクエリとの関係を徐々に向上させるカリキュラムサンプリング戦略を提案する。
ドメイン内およびドメイン外両方のデータセットに対する実験結果から,本手法が従来の高密度検索モデルより優れていることが示された。
論文 参考訳(メタデータ) (2022-12-18T15:57:46Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Graph Enhanced BERT for Query Understanding [55.90334539898102]
クエリ理解は、ユーザの検索意図を探索し、ユーザが最も望まれる情報を発見できるようにする上で、重要な役割を果たす。
近年、プレトレーニング言語モデル (PLM) は様々な自然言語処理タスクを進歩させてきた。
本稿では,クエリコンテンツとクエリグラフの両方を活用可能な,グラフ強化事前学習フレームワークGE-BERTを提案する。
論文 参考訳(メタデータ) (2022-04-03T16:50:30Z) - Query Resolution for Conversational Search with Limited Supervision [63.131221660019776]
本稿では,双方向トランスフォーマに基づくニューラルクエリ解決モデルQuReTeCを提案する。
我々はQuReTeCが最先端モデルより優れており、また、QuReTeCのトレーニングに必要な人為的なデータ量を大幅に削減するために、我々の遠隔監視手法が有効であることを示す。
論文 参考訳(メタデータ) (2020-05-24T11:37:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。