論文の概要: LLM-R2: A Large Language Model Enhanced Rule-based Rewrite System for Boosting Query Efficiency
- arxiv url: http://arxiv.org/abs/2404.12872v1
- Date: Fri, 19 Apr 2024 13:17:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-22 14:57:17.393576
- Title: LLM-R2: A Large Language Model Enhanced Rule-based Rewrite System for Boosting Query Efficiency
- Title(参考訳): LLM-R2: クエリ効率を高めるための大規模言語モデル強化ルールベース書き換えシステム
- Authors: Zhaodonghui Li, Haitao Yuan, Huiming Wang, Gao Cong, Lidong Bing,
- Abstract要約: 本稿では,LLM-R2 という新しいクエリ書き換え手法を提案する。
実験結果から,本手法はクエリ実行効率を大幅に向上し,ベースライン法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 65.01402723259098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Query rewrite, which aims to generate more efficient queries by altering a SQL query's structure without changing the query result, has been an important research problem. In order to maintain equivalence between the rewritten query and the original one during rewriting, traditional query rewrite methods always rewrite the queries following certain rewrite rules. However, some problems still remain. Firstly, existing methods of finding the optimal choice or sequence of rewrite rules are still limited and the process always costs a lot of resources. Methods involving discovering new rewrite rules typically require complicated proofs of structural logic or extensive user interactions. Secondly, current query rewrite methods usually rely highly on DBMS cost estimators which are often not accurate. In this paper, we address these problems by proposing a novel method of query rewrite named LLM-R2, adopting a large language model (LLM) to propose possible rewrite rules for a database rewrite system. To further improve the inference ability of LLM in recommending rewrite rules, we train a contrastive model by curriculum to learn query representations and select effective query demonstrations for the LLM. Experimental results have shown that our method can significantly improve the query execution efficiency and outperform the baseline methods. In addition, our method enjoys high robustness across different datasets.
- Abstract(参考訳): クエリ結果を変更することなくSQLクエリの構造を変更することで、より効率的なクエリを生成することを目的としたクエリ書き換えは、重要な研究課題である。
リライト中のリライトクエリと元のリライトクエリの等価性を維持するため、従来のクエリリライトメソッドは常に特定のリライトルールに従ってクエリをリライトする。
しかし、いくつかの問題が残っている。
第一に、最適な選択や書き直しルールの順序を見つける既存の方法はまだ限られており、プロセスは常に多くのリソースを消費します。
新しい書き直し規則の発見に関わる手法は、典型的には構造論理や広範なユーザーインタラクションの複雑な証明を必要とする。
第二に、現在のクエリ書き換え手法は、しばしば正確でないDBMSコスト推定器に大きく依存する。
本稿では,LLM-R2という新しいクエリリライト手法を提案し,データベースリライトシステムにおいて可能なリライトルールを提案するために,大規模言語モデル(LLM)を採用した。
書き直し規則を推奨するLLMの推論能力をさらに向上するため,カリキュラムによるコントラストモデルを訓練し,クエリ表現を学習し,LLMの効果的なクエリデモを選択する。
実験結果から,本手法はクエリ実行効率を大幅に向上し,ベースライン法よりも優れていることがわかった。
さらに,本手法は,異なるデータセット間で高いロバストさを享受する。
関連論文リスト
- Crafting the Path: Robust Query Rewriting for Information Retrieval [4.252699657665555]
本稿では,検索システムに適した新しい構造化クエリ書き換え手法であるCrafting the Pathを提案する。
本研究では,本手法がモデルの内部パラメータの知識に依存せず,事実的不正確なクエリを生成することを示す。
論文 参考訳(メタデータ) (2024-07-17T13:11:28Z) - Learned Graph Rewriting with Equality Saturation: A New Paradigm in Relational Query Rewrite and Beyond [0.3749861135832073]
論理的および物理的関係性クエリ計画の書き直しは、NPハードなシーケンシャルな意思決定問題であることが証明されている。
本稿では,品質飽和度とグラフ強化学習を両立させることにより,クエリ書き換えの問題に対処する。
論文 参考訳(メタデータ) (2024-06-19T21:11:19Z) - Adaptive Query Rewriting: Aligning Rewriters through Marginal Probability of Conversational Answers [66.55612528039894]
AdaQRは、シードデータセットからの限定的な書き直しアノテーションと完全にパスラベルのないクエリ書き換えモデルをトレーニングするフレームワークである。
会話クエリに条件付き回答の確率を用いて,これらの候補に対する検索者の嗜好を評価する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-16T16:09:05Z) - RaFe: Ranking Feedback Improves Query Rewriting for RAG [83.24385658573198]
アノテーションを使わずにクエリ書き換えモデルをトレーニングするためのフレームワークを提案する。
公開されているリランカを活用することで、フィードバックはリライトの目的とよく一致します。
論文 参考訳(メタデータ) (2024-05-23T11:00:19Z) - Enhancing Conversational Search: Large Language Model-Aided Informative
Query Rewriting [42.35788605017555]
本稿では,大規模言語モデル(LLM)をクエリリフレクタとして利用することを提案する。
精巧な書き直しのための4つの重要な特性を定義し、それら全てをインストラクションに組み込む。
初期クエリの書き直しが可能な場合, LLM の書き直しエディタの役割を導入し, "書き直し-テーマ-編集" プロセスを作成する。
論文 参考訳(メタデータ) (2023-10-15T03:04:17Z) - Context Aware Query Rewriting for Text Rankers using LLM [5.164642900490078]
テキストランキングタスクのクエリ書き直し改善のための大規模モデルの有用性を解析する。
私たちは、コンテキスト対応クエリ書き換え(CAR)と呼ばれる、シンプルだが驚くほど効果的なアプローチを採用しています。
書き直しクエリを使ってランク付けを行うと、パスランキングタスクでは最大33%、ドキュメントランキングタスクでは最大28%の大幅な改善が得られます。
論文 参考訳(メタデータ) (2023-08-31T14:19:50Z) - ConvGQR: Generative Query Reformulation for Conversational Search [37.54018632257896]
ConvGQRは、生成事前訓練された言語モデルに基づいて会話クエリを再構成する新しいフレームワークである。
本稿では,クエリ再構成と検索の両方を最適化する知識注入機構を提案する。
論文 参考訳(メタデータ) (2023-05-25T01:45:06Z) - Allies: Prompting Large Language Model with Beam Search [107.38790111856761]
本研究では,ALIESと呼ばれる新しい手法を提案する。
入力クエリが与えられた場合、ALLIESはLLMを活用して、元のクエリに関連する新しいクエリを反復的に生成する。
元のクエリのスコープを反復的に精錬して拡張することにより、ALLIESは直接検索できない隠れた知識をキャプチャし、利用する。
論文 参考訳(メタデータ) (2023-05-24T06:16:44Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。