論文の概要: A Unified Transferable Model for ML-Enhanced DBMS
- arxiv url: http://arxiv.org/abs/2105.02418v1
- Date: Thu, 6 May 2021 03:31:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 00:17:54.927103
- Title: A Unified Transferable Model for ML-Enhanced DBMS
- Title(参考訳): ML強化DBMSのための統一転送可能モデル
- Authors: Ziniu Wu, Peilun Yang, Pei Yu, Rong Zhu, Yuxing Han, Yaliang Li, Defu
Lian, Kai Zeng, Jingren Zhou
- Abstract要約: 本稿では,タスク間で伝達可能な知識をキャプチャするマルチタスクトレーニングプロシージャと,db間でのメタ知識を蒸留するプリトレーニングファインチューンプロシージャを用いた統一モデルmtmlfを提案する。
このパラダイムはクラウドDBサービスに適しており、将来的にMLの使用方法に革命をもたらす可能性があると考えています。
- 参考スコア(独自算出の注目度): 53.46830627879208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, the database management system (DBMS) community has witnessed the
power of machine learning (ML) solutions for DBMS tasks. Despite their
promising performance, these existing solutions can hardly be considered
satisfactory. First, these ML-based methods in DBMS are not effective enough
because they are optimized on each specific task, and cannot explore or
understand the intrinsic connections between tasks. Second, the training
process has serious limitations that hinder their practicality, because they
need to retrain the entire model from scratch for a new DB. Moreover, for each
retraining, they require an excessive amount of training data, which is very
expensive to acquire and unavailable for a new DB. We propose to explore the
transferabilities of the ML methods both across tasks and across DBs to tackle
these fundamental drawbacks.
In this paper, we propose a unified model MTMLF that uses a multi-task
training procedure to capture the transferable knowledge across tasks and a
pretrain finetune procedure to distill the transferable meta knowledge across
DBs. We believe this paradigm is more suitable for cloud DB service, and has
the potential to revolutionize the way how ML is used in DBMS. Furthermore, to
demonstrate the predicting power and viability of MTMLF, we provide a concrete
and very promising case study on query optimization tasks. Last but not least,
we discuss several concrete research opportunities along this line of work.
- Abstract(参考訳): 最近、データベース管理システム(DBMS)コミュニティは、DBMSタスクのための機械学習(ML)ソリューションのパワーを目撃している。
有望なパフォーマンスにもかかわらず、これらの既存のソリューションはほとんど満足できない。
第一に、これらのDBMSのMLベースのメソッドは、各タスクに最適化されており、タスク間の固有の接続を探索、理解できないため、効果が十分ではない。
第二に、トレーニングプロセスは、新しいDBのためにモデル全体をスクラッチから再トレーニングする必要があるため、その実用性を阻害する重大な制限があります。
さらに、再トレーニング毎に過剰なトレーニングデータが必要であるため、新しいDBを取得するのに非常にコストがかかり、利用できない。
本稿では,これらの基本的な欠点に対処するため,タスク間およびDB間のMLメソッドの転送可能性について検討する。
本稿では,タスク間で伝達可能な知識を抽出するためのマルチタスクトレーニング手順と,DB間で伝達可能なメタ知識を蒸留するための事前訓練ファインチューン手順を用いた統一モデルTMLFを提案する。
このパラダイムはクラウドDBサービスに適しており、DBMSにおけるMLの使い方に革命をもたらす可能性があると考えています。
さらに,MTMLFの予測能力と生存可能性を示すために,クエリ最適化タスクの具体的かつ非常に有望なケーススタディを提供する。
最後に、この一連の作業に関して、いくつかの具体的な研究機会について論じる。
関連論文リスト
- Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - Unified-modal Salient Object Detection via Adaptive Prompt Learning [18.090745205285543]
我々は、UniSODと呼ばれる統一フレームワークにおいて、シングルモーダルとマルチモーダルのSODに対処する最初の試みを行っている。
この目的のために、UniSODは適応的なプロンプト学習を通じてタスク固有のヒントでモダリティ認識プロンプトを学習する。
UniSODは、RGB、RGB-D、RGB-T SODの14のベンチマークデータセットで一貫したパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-11-28T14:51:08Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Towards Robust Multi-Modal Reasoning via Model Selection [8.37038849337004]
LLMはエージェントの"脳"として機能し、協調的な多段階タスク解決のための複数のツールを編成する。
我々はテスト時に無視できるランタイムオーバーヘッドを持つプラグインとして、$textitM3$フレームワークを提案する。
実験の結果,我々のフレームワークは,ユーザ入力とサブタスク依存の両方を考慮した動的モデル選択を可能にすることがわかった。
論文 参考訳(メタデータ) (2023-10-12T16:06:18Z) - A Unified and Efficient Coordinating Framework for Autonomous DBMS
Tuning [34.85351481228439]
既存のMLベースのエージェントを効率的に活用するための統合コーディネートフレームワークを提案する。
機械学習ベースのエージェントを効果的に利用し、ワークロードの実行時間に1.414.1Xのスピードアップでより良い設定を実現できることを示す。
論文 参考訳(メタデータ) (2023-03-10T05:27:23Z) - Improving Multi-task Learning via Seeking Task-based Flat Regions [43.85516379095757]
MTL(Multi-Task Learning)は、ディープニューラルネットワークをトレーニングするための強力な学習パラダイムである。
MTLには、究極の勾配降下方向を導出するためにタスク勾配を操作することに焦点を当てた、新たな作業ラインがある。
単タスク学習におけるモデル一般化能力を向上するシャープネス認識最小化という,最近導入されたトレーニング手法を活用することを提案する。
論文 参考訳(メタデータ) (2022-11-24T17:19:30Z) - Improving Meta-learning for Low-resource Text Classification and
Generation via Memory Imitation [87.98063273826702]
本稿では,メモリ模倣メタラーニング(MemIML)手法を提案する。
本手法の有効性を証明するために理論的解析を行った。
論文 参考訳(メタデータ) (2022-03-22T12:41:55Z) - SUPERB-SG: Enhanced Speech processing Universal PERformance Benchmark
for Semantic and Generative Capabilities [76.97949110580703]
各種音声タスクの事前学習モデルを評価するための新しいベンチマークであるSUPERB-SGを紹介する。
データドメインのシフトの下で、事前訓練されたモデルによって学習された表現の堅牢性をテストするために、軽量な方法論を使用します。
また,SUPERB-SGのタスク多様性とタスク監督の限定が,モデル表現の一般化性を評価する効果的な方法であることを示す。
論文 参考訳(メタデータ) (2022-03-14T04:26:40Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。