論文の概要: LLMIdxAdvis: Resource-Efficient Index Advisor Utilizing Large Language Model
- arxiv url: http://arxiv.org/abs/2503.07884v1
- Date: Mon, 10 Mar 2025 22:01:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:41:52.490446
- Title: LLMIdxAdvis: Resource-Efficient Index Advisor Utilizing Large Language Model
- Title(参考訳): LLMIdxAdvis:大規模言語モデルを利用した資源効率の高い指標アドバイザ
- Authors: Xinxin Zhao, Haoyang Li, Jing Zhang, Xinmei Huang, Tieying Zhang, Jianjun Chen, Rui Shi, Cuiping Li, Hong Chen,
- Abstract要約: 本研究では,大規模言語モデル(LLM)を用いた資源効率の指標アドバイザを提案する。
LLMは、インデックスレコメンデーションをシーケンス・ツー・シーケンスタスクとしてフレーム化し、ターゲットのワークロード、ストレージ制約、および対応するデータベース環境を入力として取り込む。
3つのOLAPと2つの実世界のベンチマークの実験によると、LLMIdxAdvisはランタイムを削減した競合インデックスレコメンデーションを提供する。
- 参考スコア(独自算出の注目度): 24.579793425796193
- License:
- Abstract: Index recommendation is essential for improving query performance in database management systems (DBMSs) through creating an optimal set of indexes under specific constraints. Traditional methods, such as heuristic and learning-based approaches, are effective but face challenges like lengthy recommendation time, resource-intensive training, and poor generalization across different workloads and database schemas. To address these issues, we propose LLMIdxAdvis, a resource-efficient index advisor that uses large language models (LLMs) without extensive fine-tuning. LLMIdxAdvis frames index recommendation as a sequence-to-sequence task, taking target workload, storage constraint, and corresponding database environment as input, and directly outputting recommended indexes. It constructs a high-quality demonstration pool offline, using GPT-4-Turbo to synthesize diverse SQL queries and applying integrated heuristic methods to collect both default and refined labels. During recommendation, these demonstrations are ranked to inject database expertise via in-context learning. Additionally, LLMIdxAdvis extracts workload features involving specific column statistical information to strengthen LLM's understanding, and introduces a novel inference scaling strategy combining vertical scaling (via ''Index-Guided Major Voting'' and Best-of-N) and horizontal scaling (through iterative ''self-optimization'' with database feedback) to enhance reliability. Experiments on 3 OLAP and 2 real-world benchmarks reveal that LLMIdxAdvis delivers competitive index recommendation with reduced runtime, and generalizes effectively across different workloads and database schemas.
- Abstract(参考訳): インデックスレコメンデーションは、特定の制約の下で最適なインデックスセットを作成することによって、データベース管理システム(DBMS)のクエリパフォーマンスを改善するために不可欠である。
ヒューリスティックなアプローチや学習ベースのアプローチといった従来の手法は効果的だが、長い推奨時間、リソース集約的なトレーニング、さまざまなワークロードやデータベーススキーマ間の一般化の低さといった課題に直面している。
これらの問題に対処するために,大規模言語モデル(LLM)を用いたリソース効率の高い指標アドバイザであるLLMIdxAdvisを提案する。
LLMIdxAdvisはインデックスレコメンデーションをシーケンス・ツー・シーケンスタスクとして、ターゲットのワークロード、ストレージ制約、および対応するデータベース環境を入力として、推奨インデックスを直接出力する。
GPT-4-Turboを使用して、多様なSQLクエリを合成し、デフォルトラベルと洗練ラベルの両方を収集するための統合ヒューリスティックメソッドを適用し、高品質なデモプールをオフラインで構築する。
推薦の間、これらのデモは、コンテキスト内学習を通じてデータベースの専門知識を注入するためにランク付けされる。
さらに、LLMIdxAdvisは、特定の列統計情報を含むワークロードの特徴を抽出してLLMの理解を強化するとともに、垂直スケーリング("Index-Guided Major Voting"と"Best-of-N")と水平スケーリング("self-optimization"とデータベースフィードバックを繰り返す)を組み合わせた新しい推論スケーリング戦略を導入し、信頼性を高める。
3つのOLAPと2つの実世界のベンチマークの実験によると、LLMIdxAdvisはランタイムを削減した競合インデックスレコメンデーションを提供し、さまざまなワークロードとデータベーススキーマを効果的に一般化する。
関連論文リスト
- QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - Is Large Language Model Good at Database Knob Tuning? A Comprehensive Experimental Evaluation [28.753219581544617]
本研究は,経験豊富なDBAとして大規模言語モデル(LLM)を,慎重に設計されたプロンプトを用いたノブチューニングタスクに活用する。
我々は,LLM方式のアプローチと従来の手法との比較実験を行った。
以上の結果から, LLMは従来の手法に適合するだけでなく, 解釈可能性も顕著であることが明らかとなった。
論文 参考訳(メタデータ) (2024-08-05T03:26:01Z) - RB-SQL: A Retrieval-based LLM Framework for Text-to-SQL [48.516004807486745]
文脈内学習を伴う大規模言語モデル(LLM)は、テキスト・ツー・タスクの性能を大幅に改善した。
In-context prompt Engineering のための新しい検索ベースフレームワーク RB- を提案する。
実験により,我々のモデルは,公開データセットのBIRDとSpiderの競合ベースラインよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2024-07-11T08:19:58Z) - Self-Augmented Preference Optimization: Off-Policy Paradigms for Language Model Alignment [104.18002641195442]
既存のペアデータを必要としない、効果的でスケーラブルなトレーニングパラダイムである自己拡張型優先度最適化(SAPO)を導入する。
負の反応を自律的に生成するセルフプレイの概念に基づいて、我々はさらに、データ探索とエクスプロイトを強化するために、非政治的な学習パイプラインを組み込む。
論文 参考訳(メタデータ) (2024-05-31T14:21:04Z) - MCS-SQL: Leveraging Multiple Prompts and Multiple-Choice Selection For Text-to-SQL Generation [10.726734105960924]
大規模言語モデル(LLM)は、テキストからタスクへの微調整アプローチを大幅に上回る、ICL(In-context Learning)ベースの手法を実現している。
本研究は,LLMのプロンプトに対する感受性を考察し,複数のプロンプトを活用してより広い探索空間を探索する手法を提案する。
生成したクエリの精度と効率の両面から,BIRD上に新たなSOTA性能を確立する。
論文 参考訳(メタデータ) (2024-05-13T04:59:32Z) - Efficient and Responsible Adaptation of Large Language Models for Robust Top-k Recommendations [11.004673022505566]
何百万というユーザの長いクエリは、大規模言語モデルのパフォーマンスを低下させ、推奨することができる。
本稿では,大規模言語モデルと従来のレコメンデーションシステムの両方の機能を利用するハイブリッドタスク割り当てフレームワークを提案する。
実世界の3つのデータセットによる結果から,弱い利用者の減少と,サブ人口に対するRSのロバスト性の向上が示唆された。
論文 参考訳(メタデータ) (2024-05-01T19:11:47Z) - Powering In-Database Dynamic Model Slicing for Structured Data Analytics [31.360239181279525]
本稿では,指定されたsqlクエリのモデルをカスタマイズする新しい動的スライシング手法であるLEADSを紹介する。
LEADSは、専門家(MoE)の混合を通じて構造化データの予測モデリングを改善し、SQL対応ゲーティングネットワークによって効率を維持する。
実世界のデータセットに関する我々の実験は、LEADSがベースラインモデルより一貫して優れていることを示した。
論文 参考訳(メタデータ) (2024-05-01T15:18:12Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - How to Index Item IDs for Recommendation Foundation Models [49.425959632372425]
Recommendation foundation modelは、リコメンデーションタスクを自然言語タスクに変換することで、リコメンデーションのために大きな言語モデル(LLM)を利用する。
過剰に長いテキストや幻覚的なレコメンデーションを生成するのを避けるために、LCM互換のアイテムIDを作成することが不可欠である。
本稿では,シーケンシャルインデックス,協調インデックス,セマンティックインデックス(コンテンツベース)インデックス,ハイブリッドインデックスの4つを提案する。
論文 参考訳(メタデータ) (2023-05-11T05:02:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。