論文の概要: A Lightweight Learned Cardinality Estimation Model
- arxiv url: http://arxiv.org/abs/2508.09602v1
- Date: Wed, 13 Aug 2025 08:34:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.813739
- Title: A Lightweight Learned Cardinality Estimation Model
- Title(参考訳): 軽量学習心度推定モデル
- Authors: Yaoyu Zhu, Jintao Zhang, Guoliang Li, Jianhua Feng,
- Abstract要約: 本稿では,Covering with Decompositions (Covering with Decompositions) と呼ばれる新しいデータ駆動手法を提案する。
CoDeでは、表を複数の小さな重なり合うセグメントに分割するカバーデザインという概念を採用している。
複数のモデルを用いて分布を近似することで、CoDeは離散分布を効果的にモデル化し、計算効率を確保する。
- 参考スコア(独自算出の注目度): 12.33987311866824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cardinality estimation is a fundamental task in database management systems, aiming to predict query results accurately without executing the queries. However, existing techniques either achieve low estimation accuracy or incur high inference latency. Simultaneously achieving high speed and accuracy becomes critical for the cardinality estimation problem. In this paper, we propose a novel data-driven approach called CoDe (Covering with Decompositions) to address this problem. CoDe employs the concept of covering design, which divides the table into multiple smaller, overlapping segments. For each segment, CoDe utilizes tensor decomposition to accurately model its data distribution. Moreover, CoDe introduces innovative algorithms to select the best-fitting distributions for each query, combining them to estimate the final result. By employing multiple models to approximate distributions, CoDe excels in effectively modeling discrete distributions and ensuring computational efficiency. Notably, experimental results show that our method represents a significant advancement in cardinality estimation, achieving state-of-the-art levels of both estimation accuracy and inference efficiency. Across various datasets, CoDe achieves absolute accuracy in estimating more than half of the queries.
- Abstract(参考訳): カーディナリティ推定はデータベース管理システムの基本課題であり、クエリを実行せずにクエリ結果を正確に予測することを目的としている。
しかし、既存の手法は低い推定精度を達成するか、高い推論遅延を発生させるかのいずれかである。
基数推定問題では、高速かつ精度の同時達成が重要となる。
本稿では,この問題を解決するために,CoDe(Covering with Decompositions)と呼ばれる新しいデータ駆動手法を提案する。
CoDeでは、表を複数の小さな重なり合うセグメントに分割するカバーデザインという概念を採用している。
各セグメントに対して、CoDeはテンソル分解を使用してデータ分布を正確にモデル化する。
さらに、CoDeでは、クエリ毎に最適な分散を選択する革新的なアルゴリズムを導入し、それらを組み合わせて最終的な結果を見積もっている。
複数のモデルを用いて分布を近似することで、CoDeは離散分布を効果的にモデル化し、計算効率を確保する。
特に,本手法は,推定精度と推定効率の両面において最先端の精度を達成し,基数推定の大幅な進歩を示すことを示す実験結果が得られた。
さまざまなデータセットにまたがって、CoDeはクエリの半分以上を推定する絶対的な精度を達成する。
関連論文リスト
- Prompt-Matcher: Leveraging Large Models to Reduce Uncertainty in Schema Matching Results [1.13107643869251]
本稿では,大規模言語モデルの特定のプロンプトを用いた細粒度対応検証に基づく新しい手法を提案する。
本手法は,(1)対応選択アルゴリズム,(2)対応検証,(3)確率分布の更新の3つの主成分からなる反復ループである。
本稿では,計算効率においてブルートアルゴリズムを著しく上回る新しい$(1-1/e)$-approximationアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-24T16:54:08Z) - Duet: efficient and scalable hybriD neUral rElation undersTanding [9.231883521214241]
デュエットは、サンプリングや微分不可能なプロセスなしで直接濃度を推定する安定で効率的でスケーラブルなハイブリッド手法である。
デュエットはCPU上での推論コストがGPUで学んだほとんどのメソッドよりも低い。
論文 参考訳(メタデータ) (2023-07-25T13:42:22Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Correlated quantization for distributed mean estimation and optimization [21.17434087570296]
本稿では,誤差保証が絶対範囲ではなくデータ点のずれに依存する相関量子化プロトコルを提案する。
分散最適化アルゴリズムにおいて,提案プロトコルをサブルーチンとして適用することにより,コンバージェンス率が向上することを示す。
論文 参考訳(メタデータ) (2022-03-09T18:14:55Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Outlier-Robust Sparse Estimation via Non-Convex Optimization [73.18654719887205]
空間的制約が存在する場合の高次元統計量と非破壊的最適化の関連について検討する。
これらの問題に対する新規で簡単な最適化法を開発した。
結論として、効率よくステーションに収束する一階法は、これらのタスクに対して効率的なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-09-23T17:38:24Z) - Efficient Ensemble Model Generation for Uncertainty Estimation with
Bayesian Approximation in Segmentation [74.06904875527556]
アンサンブルセグメンテーションモデルを構築するための汎用的で効率的なセグメンテーションフレームワークを提案する。
提案手法では,層選択法を用いて効率よくアンサンブルモデルを生成することができる。
また,新たな画素単位の不確実性損失を考案し,予測性能を向上する。
論文 参考訳(メタデータ) (2020-05-21T16:08:38Z) - Scalable Approximate Inference and Some Applications [2.6541211006790983]
本稿では,近似推論のための新しいフレームワークを提案する。
提案する4つのアルゴリズムは,Steinの手法の最近の計算進歩に動機付けられている。
シミュレーションおよび実データを用いた結果から,アルゴリズムの統計的効率と適用性を示す。
論文 参考訳(メタデータ) (2020-03-07T04:33:27Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z) - A General Method for Robust Learning from Batches [56.59844655107251]
本稿では,バッチから頑健な学習を行う一般的なフレームワークについて考察し,連続ドメインを含む任意の領域に対する分類と分布推定の限界について考察する。
本手法は,一括分節分類,一括分節,単調,対数凹,ガウス混合分布推定のための,最初の頑健な計算効率の学習アルゴリズムを導出する。
論文 参考訳(メタデータ) (2020-02-25T18:53:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。