論文の概要: Towards Establishing Guaranteed Error for Learned Database Operations
- arxiv url: http://arxiv.org/abs/2411.06243v1
- Date: Sat, 09 Nov 2024 17:53:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:07:40.121880
- Title: Towards Establishing Guaranteed Error for Learned Database Operations
- Title(参考訳): 学習データベース運用における保証誤差の確立に向けて
- Authors: Sepanta Zeighami, Cyrus Shahabi,
- Abstract要約: そこで本研究では,鍵データベース操作において,所望の精度を達成するために必要なモデルサイズについて,最初の下限を提示する。
私たちの結果は、データベース操作の実行における平均値と最悪のケースエラーに必要なモデルサイズに結びついています。
私たちの確立した保証は、学習したモデルを現実世界のシステムに広く導入し、統合するための道を開くものです。
- 参考スコア(独自算出の注目度): 5.14420675727793
- License:
- Abstract: Machine learning models have demonstrated substantial performance enhancements over non-learned alternatives in various fundamental data management operations, including indexing (locating items in an array), cardinality estimation (estimating the number of matching records in a database), and range-sum estimation (estimating aggregate attribute values for query-matched records). However, real-world systems frequently favor less efficient non-learned methods due to their ability to offer (worst-case) error guarantees - an aspect where learned approaches often fall short. The primary objective of these guarantees is to ensure system reliability, ensuring that the chosen approach consistently delivers the desired level of accuracy across all databases. In this paper, we embark on the first theoretical study of such guarantees for learned methods, presenting the necessary conditions for such guarantees to hold when using machine learning to perform indexing, cardinality estimation and range-sum estimation. Specifically, we present the first known lower bounds on the model size required to achieve the desired accuracy for these three key database operations. Our results bound the required model size for given average and worst-case errors in performing database operations, serving as the first theoretical guidelines governing how model size must change based on data size to be able to guarantee an accuracy level. More broadly, our established guarantees pave the way for the broader adoption and integration of learned models into real-world systems.
- Abstract(参考訳): 機械学習モデルは、インデックス付け(配列内のアイテムの配置)、濃度推定(データベース内のマッチングレコードの数を推定)、レンジサム推定(クエリマッチングレコードの集約属性値の推定)など、さまざまな基本的なデータ管理操作において、非学習代替よりも大幅にパフォーマンスを向上した。
しかし、現実世界のシステムは、学習したアプローチがしばしば不足する側面である(ウォーストケース)エラーの保証を提供する能力のため、効率の悪い非学習手法をしばしば好んでいる。
これらの保証の主な目的はシステムの信頼性を保証することであり、選択したアプローチがすべてのデータベースに対して常に望ましいレベルの精度を提供することを保証する。
本稿では,機械学習を用いて索引付け,濃度推定,範囲推定を行う際に,そのような保証を保持するために必要な条件を提示する。
具体的には、これらの3つのキーデータベース操作において、所望の精度を達成するために必要なモデルサイズに関する、最初の既知の下限を提示する。
我々の結果は、データベース操作の実行における平均および最悪のケースエラーに必要なモデルサイズを拘束し、精度レベルを保証するために、データサイズに基づいてモデルサイズがどう変化するかを決定するための最初の理論的ガイドラインとして機能する。
より広範に、私たちが確立した保証は、学習したモデルを現実世界のシステムに広く導入し、統合するための道を開くものです。
関連論文リスト
- Combining Retrieval and Classification: Balancing Efficiency and Accuracy in Duplicate Bug Report Detection [2.522333180723133]
本稿では,時間効率と精度性能のバランスをとるために,変圧器を用いたシステムを提案する。
我々のシステムは、分類モデルに匹敵する精度を維持し、時間効率で大幅に向上し、検索モデルよりもわずかに遅れている。
論文 参考訳(メタデータ) (2024-04-23T10:06:19Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - Exploring validation metrics for offline model-based optimisation with
diffusion models [50.404829846182764]
モデルベース最適化(MBO)では、マシンラーニングを使用して、(基底真理)オラクルと呼ばれるブラックボックス関数に対する報酬の尺度を最大化する候補を設計することに興味があります。
モデル検証中に基底オラクルに対する近似をトレーニングし、その代わりに使用することができるが、その評価は近似的であり、敵の例に対して脆弱である。
本手法は,外挿量を測定するために提案した評価フレームワークにカプセル化されている。
論文 参考訳(メタデータ) (2022-11-19T16:57:37Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Confidence Estimation via Auxiliary Models [47.08749569008467]
モデル信頼のための新しいターゲット基準、すなわち真のクラス確率(TCP)を紹介します。
標準最大クラス確率 (MCP) よりも TCP が信頼度推定に優れた特性を提供することを示す。
論文 参考訳(メタデータ) (2020-12-11T17:21:12Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z) - Monotonic Cardinality Estimation of Similarity Selection: A Deep
Learning Approach [22.958342743597044]
類似度選択の基数推定にディープラーニングを活用する可能性について検討する。
本稿では,任意のデータ型や距離関数に適用可能な,新規で汎用的な手法を提案する。
論文 参考訳(メタデータ) (2020-02-15T20:22:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。