論文の概要: A Unified Transferable Model for ML-Enhanced DBMS
- arxiv url: http://arxiv.org/abs/2105.02418v1
- Date: Thu, 6 May 2021 03:31:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 00:17:54.927103
- Title: A Unified Transferable Model for ML-Enhanced DBMS
- Title(参考訳): ML強化DBMSのための統一転送可能モデル
- Authors: Ziniu Wu, Peilun Yang, Pei Yu, Rong Zhu, Yuxing Han, Yaliang Li, Defu
Lian, Kai Zeng, Jingren Zhou
- Abstract要約: 本稿では,タスク間で伝達可能な知識をキャプチャするマルチタスクトレーニングプロシージャと,db間でのメタ知識を蒸留するプリトレーニングファインチューンプロシージャを用いた統一モデルmtmlfを提案する。
このパラダイムはクラウドDBサービスに適しており、将来的にMLの使用方法に革命をもたらす可能性があると考えています。
- 参考スコア(独自算出の注目度): 53.46830627879208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, the database management system (DBMS) community has witnessed the
power of machine learning (ML) solutions for DBMS tasks. Despite their
promising performance, these existing solutions can hardly be considered
satisfactory. First, these ML-based methods in DBMS are not effective enough
because they are optimized on each specific task, and cannot explore or
understand the intrinsic connections between tasks. Second, the training
process has serious limitations that hinder their practicality, because they
need to retrain the entire model from scratch for a new DB. Moreover, for each
retraining, they require an excessive amount of training data, which is very
expensive to acquire and unavailable for a new DB. We propose to explore the
transferabilities of the ML methods both across tasks and across DBs to tackle
these fundamental drawbacks.
In this paper, we propose a unified model MTMLF that uses a multi-task
training procedure to capture the transferable knowledge across tasks and a
pretrain finetune procedure to distill the transferable meta knowledge across
DBs. We believe this paradigm is more suitable for cloud DB service, and has
the potential to revolutionize the way how ML is used in DBMS. Furthermore, to
demonstrate the predicting power and viability of MTMLF, we provide a concrete
and very promising case study on query optimization tasks. Last but not least,
we discuss several concrete research opportunities along this line of work.
- Abstract(参考訳): 最近、データベース管理システム(DBMS)コミュニティは、DBMSタスクのための機械学習(ML)ソリューションのパワーを目撃している。
有望なパフォーマンスにもかかわらず、これらの既存のソリューションはほとんど満足できない。
第一に、これらのDBMSのMLベースのメソッドは、各タスクに最適化されており、タスク間の固有の接続を探索、理解できないため、効果が十分ではない。
第二に、トレーニングプロセスは、新しいDBのためにモデル全体をスクラッチから再トレーニングする必要があるため、その実用性を阻害する重大な制限があります。
さらに、再トレーニング毎に過剰なトレーニングデータが必要であるため、新しいDBを取得するのに非常にコストがかかり、利用できない。
本稿では,これらの基本的な欠点に対処するため,タスク間およびDB間のMLメソッドの転送可能性について検討する。
本稿では,タスク間で伝達可能な知識を抽出するためのマルチタスクトレーニング手順と,DB間で伝達可能なメタ知識を蒸留するための事前訓練ファインチューン手順を用いた統一モデルTMLFを提案する。
このパラダイムはクラウドDBサービスに適しており、DBMSにおけるMLの使い方に革命をもたらす可能性があると考えています。
さらに,MTMLFの予測能力と生存可能性を示すために,クエリ最適化タスクの具体的かつ非常に有望なケーススタディを提供する。
最後に、この一連の作業に関して、いくつかの具体的な研究機会について論じる。
関連論文リスト
- Is Large Language Model Good at Database Knob Tuning? A Comprehensive Experimental Evaluation [28.753219581544617]
本研究は,経験豊富なDBAとして大規模言語モデル(LLM)を,慎重に設計されたプロンプトを用いたノブチューニングタスクに活用する。
我々は,LLM方式のアプローチと従来の手法との比較実験を行った。
以上の結果から, LLMは従来の手法に適合するだけでなく, 解釈可能性も顕著であることが明らかとなった。
論文 参考訳(メタデータ) (2024-08-05T03:26:01Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - UniDM: A Unified Framework for Data Manipulation with Large Language Models [66.61466011795798]
大規模言語モデル(LLM)は複数のデータ操作タスクを解決する。
LLMはパフォーマンス面では明るい利点を示すが、それぞれのタスクに合うようにカスタマイズされた設計が必要である。
データ操作タスクを処理するための新しいパラダイムを確立する統一フレームワークUniDMを提案する。
論文 参考訳(メタデータ) (2024-05-10T14:44:04Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - A Unified and Efficient Coordinating Framework for Autonomous DBMS
Tuning [34.85351481228439]
既存のMLベースのエージェントを効率的に活用するための統合コーディネートフレームワークを提案する。
機械学習ベースのエージェントを効果的に利用し、ワークロードの実行時間に1.414.1Xのスピードアップでより良い設定を実現できることを示す。
論文 参考訳(メタデータ) (2023-03-10T05:27:23Z) - Improving Multi-task Learning via Seeking Task-based Flat Regions [38.28600737969538]
MTL(Multi-Task Learning)は、ディープニューラルネットワークをトレーニングするための強力な学習パラダイムである。
MTLには、究極の勾配降下方向を導出するためにタスク勾配を操作することに焦点を当てた、新たな作業ラインがある。
単タスク学習におけるモデル一般化能力を向上するシャープネス認識最小化という,最近導入されたトレーニング手法を活用することを提案する。
論文 参考訳(メタデータ) (2022-11-24T17:19:30Z) - Improving Meta-learning for Low-resource Text Classification and
Generation via Memory Imitation [87.98063273826702]
本稿では,メモリ模倣メタラーニング(MemIML)手法を提案する。
本手法の有効性を証明するために理論的解析を行った。
論文 参考訳(メタデータ) (2022-03-22T12:41:55Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。