論文の概要: PLEX: Towards Practical Learned Indexing
- arxiv url: http://arxiv.org/abs/2108.05117v1
- Date: Wed, 11 Aug 2021 09:39:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 16:18:03.223049
- Title: PLEX: Towards Practical Learned Indexing
- Title(参考訳): PLEX: 実践的な学習インデックス化を目指して
- Authors: Mihail Stoian and Andreas Kipf and Ryan Marcus and Tim Kraska
- Abstract要約: 現在の学習インデックスは、多くのハイパーパラメータを持ち、しばしばエラー保証を提供しておらず、構築するのにコストがかかる。
実践的学習指標(プレックス)について紹介する。
プレックスはスプラインと(多重レベル)ラディクス層から構成される。
最初に与えられた$epsilon$を満たすスプラインを構築し、次にスプラインポイントの分布をアドホックに分析して、ラディクス層を素早くチューニングする。
- 参考スコア(独自算出の注目度): 26.304667983989386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Latest research proposes to replace existing index structures with learned
models. However, current learned indexes tend to have many hyperparameters,
often do not provide any error guarantees, and are expensive to build. We
introduce Practical Learned Index (PLEX). PLEX only has a single hyperparameter
$\epsilon$ (maximum prediction error) and offers a better trade-off between
build and lookup time than state-of-the-art approaches. Similar to RadixSpline,
PLEX consists of a spline and a (multi-level) radix layer. It first builds a
spline satisfying the given $\epsilon$ and then performs an ad-hoc analysis of
the distribution of spline points to quickly tune the radix layer.
- Abstract(参考訳): 最近の研究は、既存のインデックス構造を学習モデルに置き換えることを提案する。
しかし、現在の学習インデックスは多くのハイパーパラメータを持ち、しばしばエラー保証を提供しておらず、構築にコストがかかる。
実践的学習指標(PLEX)を紹介する。
PLEXは単一のハイパーパラメータ$\epsilon$(最大予測エラー)しか持たず、最先端のアプローチよりもビルドとルックアップ時間のトレードオフが優れている。
RadixSplineと同様、PLEXはスプラインと(複数レベルの)ラディクス層から構成される。
最初に与えられた$\epsilon$を満たすスプラインを構築し、次にスプラインポイントの分布をアドホックに分析して、ラディクス層を素早くチューニングする。
関連論文リスト
- Omnipredicting Single-Index Models with Multi-Index Models [9.794426212144453]
単調なリプシッツリンク関数によって引き起こされる任意の損失に対して、$varepsilon$-competitive であるオムニプレクタを出力する学習者を与える。
我々のアルゴリズムでは,$approx varepsilon-4$サンプルをほぼ線形時間で実行し,リンク関数がbi-Lipschitzであれば$approx varepsilon-2$に改善する。
論文 参考訳(メタデータ) (2024-11-20T07:20:49Z) - Fully First-Order Methods for Decentralized Bilevel Optimization [17.20330936572045]
本稿では,エージェントが隣人とのみ通信する分散二段階最適化(DSBO)に焦点を当てる。
本稿では,既存の作品に広く採用されている2次オラクルよりもはるかに安価な1次オラクルのみを必要とする新しいアルゴリズムである,分散グラディエントDescent and Ascent with Gradient Tracking (DSGDA-GT)を提案する。
論文 参考訳(メタデータ) (2024-10-25T06:11:43Z) - AcceleratedLiNGAM: Learning Causal DAGs at the speed of GPUs [57.12929098407975]
既存の因果探索法を効率的に並列化することにより,数千次元まで拡張可能であることを示す。
具体的には、DirectLiNGAMの因果順序付けサブプロデューサに着目し、GPUカーネルを実装して高速化する。
これにより、遺伝子介入による大規模遺伝子発現データに対する因果推論にDirectLiNGAMを適用することで、競争結果が得られる。
論文 参考訳(メタデータ) (2024-03-06T15:06:11Z) - PriorBand: Practical Hyperparameter Optimization in the Age of Deep
Learning [49.92394599459274]
我々は,Deep Learning(DL)パイプラインに適したHPOアルゴリズムであるPresideBandを提案する。
各種のDLベンチマークでその堅牢性を示し、情報的専門家のインプットと、専門家の信条の低さに対してその利得を示す。
論文 参考訳(メタデータ) (2023-06-21T16:26:14Z) - Deep Momentum Multi-Marginal Schr\"odinger Bridge [41.27274841596343]
本稿では,時間的限界制約を満たすシステムに対して,スムーズな測度値アルゴリズムを学習する新しいフレームワークを提案する。
我々のアルゴリズムは、合成データセットと実世界の単一細胞RNAデータセットシーケンスの実験によって証明されたように、ベースラインを著しく上回る。
論文 参考訳(メタデータ) (2023-03-03T07:24:38Z) - End-to-End Learning to Index and Search in Large Output Spaces [95.16066833532396]
Extreme Multi-label Classification (XMC) は現実世界の問題を解決するための一般的なフレームワークである。
本稿では,木系インデックスを特殊重み付きグラフベースインデックスに緩和する新しい手法を提案する。
ELIASは、数百万のラベルを持つ大規模極端分類ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-10-16T01:34:17Z) - A Fast Parallel Tensor Decomposition with Optimal Stochastic Gradient
Descent: an Application in Structural Damage Identification [1.536989504296526]
本稿では, CANDECOMP/PARAFAC (CP) 分解を mathbbR I_1 times dots times I_N $ で並列化する新しいアルゴリズム FP-CPD を提案する。
論文 参考訳(メタデータ) (2021-11-04T05:17:07Z) - Fast Rates for the Regret of Offline Reinforcement Learning [69.23654172273085]
無限水平割引決定プロセス(MDP)における固定行動ポリシーによって生成されたオフラインデータからの強化学習の後悔について検討する。
最適品質関数 $Q*$ に対する任意の推定が与えられたとき、定義するポリシーの後悔は、$Q*$-estimate の点収束率の指数によって与えられる速度で収束することを示す。
論文 参考訳(メタデータ) (2021-01-31T16:17:56Z) - Linear-Sample Learning of Low-Rank Distributions [56.59844655107251]
ktimes k$, rank-r$, matrices to normalized $L_1$ distance requires $Omega(frackrepsilon2)$ sample。
我々は、$cal O(frackrepsilon2log2fracepsilon)$ sample, a number linear in the high dimension, and almost linear in the matrices, usually low, rank proofs.というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-30T19:10:32Z) - NeCPD: An Online Tensor Decomposition with Optimal Stochastic Gradient
Descent [1.0953917735844645]
マルチウェイオンラインデータに基づく$(N)Nにおける非効率的な問題に対して,NeCPDという新しい効率的な分解アルゴリズムを提案する。
さらに,本手法を構造的データセットを用いた実生活モニタリングの分野に適用する。
論文 参考訳(メタデータ) (2020-03-18T04:44:05Z) - Improved guarantees and a multiple-descent curve for Column Subset
Selection and the Nystr\"om method [76.73096213472897]
我々は,データ行列のスペクトル特性を利用して近似保証を改良する手法を開発した。
我々のアプローチは、特異値減衰の既知の速度を持つデータセットのバウンダリが大幅に向上する。
RBFパラメータを変更すれば,改良された境界線と多重発振曲線の両方を実データセット上で観測できることが示される。
論文 参考訳(メタデータ) (2020-02-21T00:43:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。