論文の概要: DB-BERT: a Database Tuning Tool that "Reads the Manual"
- arxiv url: http://arxiv.org/abs/2112.10925v1
- Date: Tue, 21 Dec 2021 01:04:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 13:21:11.645988
- Title: DB-BERT: a Database Tuning Tool that "Reads the Manual"
- Title(参考訳): DB-BERT:"マニュアルを読む"データベースチューニングツール
- Authors: Immanuel Trummer
- Abstract要約: DB-BERTはマニュアルやその他の関連文書の自然言語解析を通じて得られる情報を利用する。
テキストを使用してデータベースのパラメータを特定してチューニングし、推奨パラメータ値も指定する。
DB-BERTは特定のデータベースシステムとベンチマークの最適なパフォーマンスを達成するためにヒントを収集、適応、優先順位付けすることを学ぶ。
- 参考スコア(独自算出の注目度): 10.725748279715068
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: DB-BERT is a database tuning tool that exploits information gained via
natural language analysis of manuals and other relevant text documents. It uses
text to identify database system parameters to tune as well as recommended
parameter values. DB-BERT applies large, pre-trained language models
(specifically, the BERT model) for text analysis. During an initial training
phase, it fine-tunes model weights in order to translate natural language hints
into recommended settings. At run time, DB-BERT learns to aggregate, adapt, and
prioritize hints to achieve optimal performance for a specific database system
and benchmark. Both phases are iterative and use reinforcement learning to
guide the selection of tuning settings to evaluate (penalizing settings that
the database system rejects while rewarding settings that improve performance).
In our experiments, we leverage hundreds of text documents about database
tuning as input for DB-BERT. We compare DB-BERT against various baselines,
considering different benchmarks (TPC-C and TPC-H), metrics (throughput and run
time), as well as database systems (Postgres and MySQL). In all cases, DB-BERT
finds the best parameter settings among all compared methods. The code of
DB-BERT is available online at https://itrummer.github.io/dbbert/.
- Abstract(参考訳): DB-BERTは、マニュアルやその他の関連文書の自然言語解析を通じて得られる情報を利用するデータベースチューニングツールである。
テキストを使用してデータベースシステムのパラメータを識別し、推奨パラメータ値をチューニングする。
DB-BERTはテキスト分析に大規模で事前訓練された言語モデル(特にBERTモデル)を適用する。
最初のトレーニングフェーズでは、モデル重みを微調整して、自然言語ヒントを推奨設定に変換する。
実行時にDB-BERTは、特定のデータベースシステムとベンチマークの最適なパフォーマンスを達成するためにヒントを集約、適応、優先順位付けすることを学ぶ。
両方のフェーズは反復的であり、強化学習を使用してチューニング設定の選択をガイドし、評価する(データベースシステムが拒否するペナルティ設定は、パフォーマンスを改善するための設定に報いる)。
実験ではDB-BERTの入力としてデータベースチューニングに関する数百の文書を利用する。
さまざまなベンチマーク(TPC-CとTPC-H)、メトリクス(スループットと実行時間)、データベースシステム(PostgresとMySQL)を考慮して、DB-BERTをさまざまなベースラインと比較する。
すべての場合、DB-BERTは比較されたメソッドの中で最高のパラメータ設定を見つけます。
db-bertのコードはhttps://itrummer.github.io/dbbert/で入手できる。
関連論文リスト
- Can Language Models Enable In-Context Database? [3.675766365690372]
大型言語モデル (LLM) は、様々なタスクを処理できる数ショットの学習者として登場している。
軽量で人間が読めるインコンテキストデータベースの特徴は、従来のデータベースの代替となる可能性がある。
論文 参考訳(メタデータ) (2024-11-04T05:25:39Z) - PRICE: A Pretrained Model for Cross-Database Cardinality Estimation [78.30959470441442]
クエリ実行計画の最適化には,カーディナリティ推定(CardEst)が不可欠である。
近年のMLベースのCardEst法は, 製造コストが高いため, 高い精度で展開が困難である。
PRetrained MultI-table CardEstモデルであるPRICEを提案する。
論文 参考訳(メタデータ) (2024-06-03T06:21:53Z) - Metasql: A Generate-then-Rank Framework for Natural Language to SQL
Translation [10.812409371488913]
本稿では,既存のNLIDBに柔軟に組み込むことができ,翻訳精度を一貫して向上する統合生成列フレームワークを提案する。
Metasqlは、より良いクエリ候補の生成を制御するためにクエリメタデータを導入し、グローバルに最適化されたクエリを検索するために学習からランクアルゴリズムを使用する。
その結果,Metasqlを用いて翻訳モデルの性能を効果的に改善できることが示唆された。
論文 参考訳(メタデータ) (2024-02-27T02:16:07Z) - SQL-PaLM: Improved Large Language Model Adaptation for Text-to-SQL (extended) [53.95151604061761]
本稿では,大規模言語モデル(LLM)を用いたテキスト・ツー・フィルタリングのフレームワークを提案する。
数発のプロンプトで、実行ベースのエラー解析による一貫性復号化の有効性について検討する。
命令の微調整により、チューニングされたLLMの性能に影響を及ぼす重要なパラダイムの理解を深める。
論文 参考訳(メタデータ) (2023-05-26T21:39:05Z) - UNITE: A Unified Benchmark for Text-to-SQL Evaluation [72.72040379293718]
テキスト・ツー・ドメイン・システムのためのUNIfiedベンチマークを導入する。
公開されているテキストからドメインへのデータセットと29Kデータベースで構成されている。
広く使われているSpiderベンチマークと比較すると、SQLパターンの3倍の増加が紹介されている。
論文 参考訳(メタデータ) (2023-05-25T17:19:52Z) - Can LLM Already Serve as A Database Interface? A BIg Bench for
Large-Scale Database Grounded Text-to-SQLs [89.68522473384522]
テキストから効率のよいタスクをベースとした大規模データベースのための大規模なベンチマークであるBirdを紹介します。
データベースの値に重点を置いていると、汚いデータベースコンテンツに対する新たな課題が浮き彫りになる。
最も効果的なテキストから効率のよいモデルであるChatGPTでさえ、実行精度はわずか40.08%である。
論文 参考訳(メタデータ) (2023-05-04T19:02:29Z) - Uni-Parser: Unified Semantic Parser for Question Answering on Knowledge
Base and Database [86.03294330305097]
知識ベース(KB)とデータベース(DB)の両方で質問応答(QA)を統一した意味的要素を提案する。
フレームワークに不可欠な要素としてプリミティブ(KBのリレーションとエンティティ、テーブル名、列名、DBのセル値)を導入します。
生成元を利用して、異なる操作でトップランクプリミティブを変更・構成することで、最終的な論理形式を予測する。
論文 参考訳(メタデータ) (2022-11-09T19:33:27Z) - Bridging Textual and Tabular Data for Cross-Domain Text-to-SQL Semantic
Parsing [110.97778888305506]
BRIDGEは、フィールドのサブセットが質問に言及されたセル値で拡張されるタグ付きシーケンスの質問とDBスキーマを表します。
BRIDGEは、人気のクロスDBテキスト-リレーショナルベンチマークで最先端のパフォーマンスを達成しました。
本分析は,BRIDGEが望まれる相互依存を効果的に捕捉し,さらにテキストDB関連タスクに一般化する可能性を示唆している。
論文 参考訳(メタデータ) (2020-12-23T12:33:52Z) - Data Agnostic RoBERTa-based Natural Language to SQL Query Generation [0.0]
NL2タスクは、自然言語による質問から有効なクエリへの変換問題を解決するために、ディープラーニングアプローチを見つけることを目的としている。
データプライバシに関するアプローチを,その中核として紹介しています。
成果は得られていないが、モデルのトレーニングからテーブルの必要性を排除した。
論文 参考訳(メタデータ) (2020-10-11T13:18:46Z) - Table Search Using a Deep Contextualized Language Model [20.041167804194707]
本稿では、アドホックテーブル検索のタスクに、文脈化言語モデルBERTを用いる。
本稿では,テーブル検索における先行文献の特徴を取り入れた手法を提案し,BERTと共同で学習する。
論文 参考訳(メタデータ) (2020-05-19T04:18:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。