論文の概要: From WiscKey to Bourbon: A Learned Index for Log-Structured Merge Trees
- arxiv url: http://arxiv.org/abs/2005.14213v2
- Date: Fri, 30 Oct 2020 18:09:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 05:53:32.317223
- Title: From WiscKey to Bourbon: A Learned Index for Log-Structured Merge Trees
- Title(参考訳): WiscKeyからBourbonへ:ログ構造化されたマージツリーの学習指標
- Authors: Yifan Dai, Yien Xu, Aishwarya Ganesan, Ramnatthan Alagappan, Brian
Kroth, Andrea C. Arpaci-Dusseau, and Remzi H. Arpaci-Dusseau
- Abstract要約: BOURBONは、機械学習を利用して高速なルックアップを提供する、ログ構造化マージ(LSM)ツリーである。
BOURBONは、最先端のLSMと比較して、ルックアップ性能を1.23x-1.78x向上することを示す。
- 参考スコア(独自算出の注目度): 1.9003569830436575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce BOURBON, a log-structured merge (LSM) tree that utilizes machine
learning to provide fast lookups. We base the design and implementation of
BOURBON on empirically-grounded principles that we derive through careful
analysis of LSM design. BOURBON employs greedy piecewise linear regression to
learn key distributions, enabling fast lookup with minimal computation, and
applies a cost-benefit strategy to decide when learning will be worthwhile.
Through a series of experiments on both synthetic and real-world datasets, we
show that BOURBON improves lookup performance by 1.23x-1.78x as compared to
state-of-the-art production LSMs.
- Abstract(参考訳): 本稿では,機械学習を用いて高速なルックアップを提供するログ構造マージ(lsm)ツリーであるboulbonを紹介する。
我々は,LSM設計を慎重に分析することで導出する経験則に基づいて,BOURBONの設計と実装を行う。
BOURBONは、キーの分布を学習するために派手な線形回帰を採用し、最小限の計算で高速な検索を可能にし、学習の価値を決定するために費用対効果の戦略を適用している。
合成と実世界の両方のデータセットに関する一連の実験を通して、BOURBONは最先端のLSMと比較してルックアップ性能を1.23x-1.78倍改善することを示した。
関連論文リスト
- LearnedKV: Integrating LSM and Learned Index for Superior Performance on SSD [0.6774462529828165]
本稿では,LSMツリーとLearted Indexをシームレスに統合した新しいキーバリューストアであるLeartedKVを紹介する。
以上の結果から,LeartedKVは読み出し要求の最大1.32倍,書き込み性能の最大1.31倍で,最先端のソリューションよりも優れていた。
論文 参考訳(メタデータ) (2024-06-27T05:08:09Z) - Optimized Feature Generation for Tabular Data via LLMs with Decision Tree Reasoning [53.241569810013836]
本稿では,大規模言語モデル(LLM)を用いて,効率的な特徴生成ルールを同定するフレームワークを提案する。
我々は、自然言語で容易に表現できるため、この推論情報を伝達するために決定木を使用します。
OCTreeは様々なベンチマークで様々な予測モデルの性能を継続的に向上させる。
論文 参考訳(メタデータ) (2024-06-12T08:31:34Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - REAL: Representation Enhanced Analytic Learning for Exemplar-free Class-incremental Learning [12.197327462627912]
EFCIL(Exemplar-free class-incremental Learning)のための表現強化分析学習(REAL)を提案する。
REALは、二重ストリームベース事前訓練(DS-BPT)および表現強化蒸留(RED)プロセスを構築し、抽出器の表現を強化する。
本手法は,既存のALベースCILの凍結バックボーンによって引き起こされる未確認データの表現において,識別性が不十分な問題に対処する。
論文 参考訳(メタデータ) (2024-03-20T11:48:10Z) - Bidirectional Trained Tree-Structured Decoder for Handwritten
Mathematical Expression Recognition [51.66383337087724]
Handwriting Mathematical Expression Recognition (HMER) タスクは、OCRの分野における重要な分岐である。
近年の研究では、双方向コンテキスト情報の導入により、HMERモデルの性能が大幅に向上することが示されている。
本稿では,MF-SLT と双方向非同期トレーニング (BAT) 構造を提案する。
論文 参考訳(メタデータ) (2023-12-31T09:24:21Z) - Joint Learning of Label and Environment Causal Independence for Graph
Out-of-Distribution Generalization [60.4169201192582]
本稿では,ラベルと環境情報を完全に活用するために,ラベルと環境の因果独立(LECI)を導入することを提案する。
LECIは、合成データセットと実世界のデータセットの両方において、従来の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2023-06-01T19:33:30Z) - Principled Reinforcement Learning with Human Feedback from Pairwise or
$K$-wise Comparisons [79.98542868281473]
RLHF(Reinforcement Learning with Human Feedback)の理論的枠組みを提供する。
学習した報酬モデルに基づいてポリシーをトレーニングする際、MLEは失敗し、悲観的なMLEは特定のカバレッジ仮定の下で性能を改善したポリシーを提供する。
論文 参考訳(メタデータ) (2023-01-26T18:07:21Z) - Principal Geodesic Analysis of Merge Trees (and Persistence Diagrams) [8.430851504111585]
本稿では,共有メモリ並列性を利用した効率的な反復アルゴリズムと,適合エネルギー勾配の解析式を導入する。
我々は,2つの典型的なPCAアプリケーションを統合することで,コントリビューションの有用性を示す。
MT-PGAベースの最初の2方向を利用して2次元レイアウトを生成する次元削減フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-22T09:17:22Z) - Learning to branch with Tree MDPs [6.754135838894833]
我々は、強化学習(RL)を通して、スクラッチから分岐規則を学習することを提案する。
木マルコフ決定過程 (tree Markov Decision Processes) や木MDP (tree MDPs) を提案する。
我々は,MDPが学習収束を改善するための計算実験を通じて,MILPにおける学習とブランチの問題に対処するための有望な枠組みを提供する。
論文 参考訳(メタデータ) (2022-05-23T07:57:32Z) - SPLADE v2: Sparse Lexical and Expansion Model for Information Retrieval [11.38022203865326]
SPLADEモデルは、最先端の高密度かつスパースなアプローチに関して、高度にスパースな表現と競争結果を提供する。
我々は、プール機構を変更し、文書拡張のみに基づいてモデルをベンチマークし、蒸留で訓練されたモデルを導入する。
全体として、SPLADEはTREC DL 2019のNDCG@10で9ドル以上のゲインで大幅に改善され、BEIRベンチマークで最先端の結果が得られた。
論文 参考訳(メタデータ) (2021-09-21T10:43:42Z) - Principled Exploration via Optimistic Bootstrapping and Backward
Induction [84.78836146128238]
最適ブートストラップ・バックワード誘導(OB2I)による深層強化学習(DRL)の原理的探索法を提案する。
OB2IはDRLの非パラメトリックブートストラップを介して汎用UCB結合を構築する。
提案する UCB-bonus と LSVI-UCB の理論的接続を線形に構築する。
論文 参考訳(メタデータ) (2021-05-13T01:15:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。