論文の概要: One Model to Rule them All: Towards Zero-Shot Learning for Databases
- arxiv url: http://arxiv.org/abs/2105.00642v1
- Date: Mon, 3 May 2021 06:18:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 13:53:21.656512
- Title: One Model to Rule them All: Towards Zero-Shot Learning for Databases
- Title(参考訳): すべてを支配する1つのモデル:データベースのゼロショット学習に向けて
- Authors: Benjamin Hilprecht and Carsten Binnig
- Abstract要約: データベースのゼロショット学習は、データベースコンポーネントの新しい学習アプローチである。
物理コスト推定タスクにおけるゼロショット学習の実現性を示す。
データベースのゼロショット学習に関するコア課題について論じ,ゼロショット学習を拡張するロードマップを提示する。
- 参考スコア(独自算出の注目度): 18.46293613612346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present our vision of so called zero-shot learning for
databases which is a new learning approach for database components. Zero-shot
learning for databases is inspired by recent advances in transfer learning of
models such as GPT-3 and can support a new database out-of-the box without the
need to train a new model. As a first concrete contribution in this paper, we
show the feasibility of zero-shot learning for the task of physical cost
estimation and present very promising initial results. Moreover, as a second
contribution we discuss the core challenges related to zero-shot learning for
databases and present a roadmap to extend zero-shot learning towards many other
tasks beyond cost estimation or even beyond classical database systems and
workloads.
- Abstract(参考訳): 本稿では,データベースコンポーネントの新しい学習手法であるデータベースのためのゼロショット学習というビジョンを提案する。
データベースのゼロショット学習は、GPT-3のようなモデルの転送学習の最近の進歩に触発され、新しいモデルをトレーニングすることなく、新しいデータベースを最初からサポートできる。
本論文における最初の具体的な貢献として,物理コスト推定タスクに対するゼロショット学習の実現可能性を示し,非常に有望な初期結果を示す。
さらに、第2の貢献として、データベースのゼロショット学習に関する中核的な課題について論じ、コスト見積や従来のデータベースシステムやワークロードを超えて、ゼロショット学習を他の多くのタスクにも拡張するロードマップを提示します。
関連論文リスト
- RelBench: A Benchmark for Deep Learning on Relational Databases [78.52438155603781]
本稿では,グラフニューラルネットワークを用いたデータベース上でタスクを解くための公開ベンチマークであるRelBenchを紹介する。
私たちはRelBenchを使って、ディープラーニングインフラストラクチャに関する初の総合的な研究を行っています。
RDLは、人間の作業量を1桁以上削減しながら、より良く学習する。
論文 参考訳(メタデータ) (2024-07-29T14:46:13Z) - Self-Regulated Data-Free Knowledge Amalgamation for Text Classification [9.169836450935724]
そこで我々は,複数の教師モデルから学習できる軽量な学生ネットワークを構築した。
そこで本研究では,各教師に適したテキストデータを生成するモデリングフレームワークSTRATANETを提案する。
本手法は,ラベルやドメインの異なる3つのベンチマークテキスト分類データセットを用いて評価する。
論文 参考訳(メタデータ) (2024-06-16T21:13:30Z) - Few Shot Class Incremental Learning using Vision-Language models [24.930246674021525]
本研究では,言語正規化器と部分空間正規化器を利用する,革新的な数ショットクラスインクリメンタルラーニング(FSCIL)フレームワークを提案する。
提案するフレームワークは,限られたデータを持つ新しいクラスをモデルに導入するだけでなく,ベースクラスのパフォーマンスの維持も保証する。
論文 参考訳(メタデータ) (2024-05-02T06:52:49Z) - One-Shot Open Affordance Learning with Foundation Models [54.15857111929812]
私たちは、モデルがベースオブジェクトカテゴリ毎に1つの例でトレーニングされる、ワンショットのオープンアフォーダンスラーニング(OOAL)を紹介します。
本稿では,視覚的特徴と手頃なテキスト埋め込みとの整合性を高める,シンプルで効果的な設計の視覚言語フレームワークを提案する。
2つのアベイランスセグメンテーションのベンチマーク実験により、提案手法はトレーニングデータの1%未満で最先端のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-11-29T16:23:06Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - Information Association for Language Model Updating by Mitigating
LM-Logical Discrepancy [68.31760483418901]
大規模言語モデル(LLM)は、時代遅れの事前学習データのために現在の情報を提供するのに苦労する。
知識編集や連続的な微調整など,従来のLCMの更新方法は,新たな情報の一般化に重大な欠点がある。
これらの欠点の中核となる課題は,言語モデリングの確率と論理的確率の差を特徴とするLM論理的相違である。
論文 参考訳(メタデータ) (2023-05-29T19:48:37Z) - Towards Foundation Models for Relational Databases [Vision Paper] [15.800326697562841]
関係表現学習のビジョンは、完全な関係構造から学習できるだけでなく、より大きなデータベースサイズまで拡張できる。
全体として、この方向は、現在テキストや画像でしか利用できないリレーショナルデータベースの基盤モデルに繋がる可能性があると論じる。
論文 参考訳(メタデータ) (2023-05-24T16:37:35Z) - Towards Efficient Task-Driven Model Reprogramming with Foundation Models [52.411508216448716]
ビジョンファウンデーションモデルは、非常に大きなモデルキャパシティと幅広いトレーニングデータから恩恵を受け、印象的なパワーを示す。
しかし、実際には、下流のシナリオは限られた計算資源や効率上の考慮のため、小さなモデルしかサポートできない。
これは、ファンデーションモデルの現実的な応用に重要な課題をもたらします。
論文 参考訳(メタデータ) (2023-04-05T07:28:33Z) - Zero-Shot Cost Models for Out-of-the-box Learned Cost Prediction [18.46293613612346]
ゼロショットコストモデルを導入し、未確認データベースに一般化した学習コスト推定を可能にする。
事前学習したコストモデルに基づく新しい学習パラダイムを提案する。
ゼロショットコストモデルが数ショットモードで利用可能であることを示し、未知のデータベースに少数追加のトレーニングクエリを追加するだけで、その品質をさらに向上できることを示した。
論文 参考訳(メタデータ) (2022-01-03T10:11:35Z) - A Survey on Self-supervised Pre-training for Sequential Transfer
Learning in Neural Networks [1.1802674324027231]
移動学習のための自己教師付き事前学習は、ラベルのないデータを用いて最先端の結果を改善する技術として、ますます人気が高まっている。
本稿では,自己指導型学習と伝達学習の分類学の概要を述べるとともに,各領域にまたがる事前学習タスクを設計するためのいくつかの顕著な手法を強調した。
論文 参考訳(メタデータ) (2020-07-01T22:55:48Z) - DeGAN : Data-Enriching GAN for Retrieving Representative Samples from a
Trained Classifier [58.979104709647295]
我々は、トレーニングされたネットワークの将来の学習タスクのために、利用可能なデータの豊富さと関連するデータの欠如の間のギャップを埋める。
利用可能なデータは、元のトレーニングデータセットまたは関連するドメインデータセットの不均衡なサブセットである可能性があるため、代表サンプルを検索するために使用します。
関連ドメインからのデータを活用して最先端のパフォーマンスを実現することを実証する。
論文 参考訳(メタデータ) (2019-12-27T02:05:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。