論文の概要: Graph Enhanced BERT for Query Understanding
- arxiv url: http://arxiv.org/abs/2204.06522v2
- Date: Fri, 17 Nov 2023 05:17:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 21:12:21.424791
- Title: Graph Enhanced BERT for Query Understanding
- Title(参考訳): クエリ理解のためのグラフ強化BERT
- Authors: Juanhui Li, Yao Ma, Wei Zeng, Suqi Cheng, Jiliang Tang, Shuaiqiang
Wang, Dawei Yin
- Abstract要約: クエリ理解は、ユーザの検索意図を探索し、ユーザが最も望まれる情報を発見できるようにする上で、重要な役割を果たす。
近年、プレトレーニング言語モデル (PLM) は様々な自然言語処理タスクを進歩させてきた。
本稿では,クエリコンテンツとクエリグラフの両方を活用可能な,グラフ強化事前学習フレームワークGE-BERTを提案する。
- 参考スコア(独自算出の注目度): 55.90334539898102
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Query understanding plays a key role in exploring users' search intents and
facilitating users to locate their most desired information. However, it is
inherently challenging since it needs to capture semantic information from
short and ambiguous queries and often requires massive task-specific labeled
data. In recent years, pre-trained language models (PLMs) have advanced various
natural language processing tasks because they can extract general semantic
information from large-scale corpora. Therefore, there are unprecedented
opportunities to adopt PLMs for query understanding. However, there is a gap
between the goal of query understanding and existing pre-training strategies --
the goal of query understanding is to boost search performance while existing
strategies rarely consider this goal. Thus, directly applying them to query
understanding is sub-optimal. On the other hand, search logs contain user
clicks between queries and urls that provide rich users' search behavioral
information on queries beyond their content. Therefore, in this paper, we aim
to fill this gap by exploring search logs. In particular, to incorporate search
logs into pre-training, we first construct a query graph where nodes are
queries and two queries are connected if they lead to clicks on the same urls.
Then we propose a novel graph-enhanced pre-training framework, GE-BERT, which
can leverage both query content and the query graph. In other words, GE-BERT
can capture both the semantic information and the users' search behavioral
information of queries. Extensive experiments on various query understanding
tasks have demonstrated the effectiveness of the proposed framework.
- Abstract(参考訳): クエリ理解は、ユーザの検索意図を探求し、ユーザが最も望ましい情報を見つけるのを促進する上で、重要な役割を果たす。
しかし、短大であいまいなクエリから意味情報を取り込む必要があり、タスク固有のラベル付きデータを必要とすることが多いため、本質的に困難である。
近年,PLM(Pre-trained Language Model)は,大規模コーパスから一般的な意味情報を抽出できるため,様々な自然言語処理タスクを進歩させている。
したがって、問合せ理解に PLM を採用する前例のない機会がある。
しかし、クエリ理解の目的と既存の事前学習戦略との間にはギャップがある - クエリ理解の目標は検索性能の向上であり、既存の戦略はこの目標をほとんど考慮しない。
したがって、クエリ理解に直接適用することは最適ではない。
一方、検索ログには、クエリ間のユーザークリックと、コンテンツを超えたクエリに関するリッチなユーザの検索行動情報を提供するurlが含まれている。
そこで本稿では,検索ログを探索することで,このギャップを埋めることを目的とする。
特に,検索ログを事前学習に組み込むために,まずノードがクエリであるクエリグラフを構築し,同じURLをクリックした場合に2つのクエリが接続される。
次に,クエリコンテンツとクエリグラフの両方を活用可能な,グラフ強化事前学習フレームワークGE-BERTを提案する。
言い換えれば、GE-BERTはクエリのセマンティック情報とユーザの行動情報の両方をキャプチャできる。
様々な問合せ理解タスクに関する大規模な実験により,提案手法の有効性が示された。
関連論文リスト
- QueryBuilder: Human-in-the-Loop Query Development for Information Retrieval [12.543590253664492]
我々は、$textitQueryBuilder$という、インタラクティブな新しいシステムを提示します。
初心者の英語を話すユーザは、少量の労力でクエリを作成できる。
ユーザの情報要求に応じた言語間情報検索クエリを迅速に開発する。
論文 参考訳(メタデータ) (2024-09-07T00:46:58Z) - Database-Augmented Query Representation for Information Retrieval [59.57065228857247]
データベース拡張クエリ表現(DAQu)と呼ばれる新しい検索フレームワークを提案する。
DAQuは、元のクエリを複数のテーブルにまたがるさまざまな(クエリ関連の)メタデータで拡張する。
リレーショナルデータベースのメタデータを組み込む様々な検索シナリオにおいてDAQuを検証する。
論文 参考訳(メタデータ) (2024-06-23T05:02:21Z) - User Intent Recognition and Semantic Cache Optimization-Based Query Processing Framework using CFLIS and MGR-LAU [0.0]
この研究は、拡張QPのためのクエリにおける情報、ナビゲーション、およびトランザクションベースのインテントを分析した。
効率的なQPのために、データはEpanechnikov Kernel-Ordering Pointsを用いて構造化され、クラスタリング構造(EK-OPTICS)を同定する。
抽出された特徴、検出された意図、構造化データは、MGR-LAU(Multi-head Gated Recurrent Learnable Attention Unit)に入力される。
論文 参考訳(メタデータ) (2024-06-06T20:28:05Z) - Enhanced Facet Generation with LLM Editing [5.4327243200369555]
情報検索においては,ユーザクエリのファセット識別が重要な課題である。
従来の研究は,検索によって得られた検索文書や関連クエリを活用することで,ファセット予測を強化することができる。
しかし、検索エンジンがモデルの一部として動作する場合、他のアプリケーションに拡張することは困難である。
論文 参考訳(メタデータ) (2024-03-25T00:43:44Z) - Decomposing Complex Queries for Tip-of-the-tongue Retrieval [72.07449449115167]
複雑なクエリは、コンテンツ要素(例えば、書籍の文字やイベント)、ドキュメントテキスト以外の情報を記述する。
この検索設定は舌の先端 (TOT) と呼ばれ、クエリと文書テキスト間の語彙的および意味的重複に依存するモデルでは特に困難である。
クエリを個別のヒントに分解し、サブクエリとしてルーティングし、特定の検索者にルーティングし、結果をアンサンブルすることで、このような複雑なクエリを扱うための、シンプルで効果的なフレームワークを導入します。
論文 参考訳(メタデータ) (2023-05-24T11:43:40Z) - Neural Graph Reasoning: Complex Logical Query Answering Meets Graph
Databases [63.96793270418793]
複雑な論理クエリ応答(CLQA)は、グラフ機械学習の最近登場したタスクである。
ニューラルグラフデータベース(NGDB)の概念を紹介する。
NGDBはNeural Graph StorageとNeural Graph Engineで構成されている。
論文 参考訳(メタデータ) (2023-03-26T04:03:37Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Query Understanding via Intent Description Generation [75.64800976586771]
問合せ理解のためのQ2ID(Query-to-Intent-Description)タスクを提案する。
クエリとその記述を利用してドキュメントの関連性を計算する既存のランキングタスクとは異なり、Q2IDは自然言語のインテント記述を生成するための逆タスクである。
Q2IDタスクにおける複数の最先端生成モデルとの比較により,本モデルの有効性を実証する。
論文 参考訳(メタデータ) (2020-08-25T08:56:40Z) - Modeling Information Need of Users in Search Sessions [5.172625611483604]
本稿では,ユーザによって発行された過去のクエリの集合を利用するシーケンス・ツー・シーケンス・ベース・ニューラルアーキテクチャを提案する。
まず、我々のモデルを用いて、現在のクエリで重要で、次のクエリに保持される単語を予測する。
情報収集の直感的な戦略は,2つの大規模リアルタイム検索ログデータセットにおいて,これらのタスクにおいて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-01-03T15:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。