論文の概要: From WiscKey to Bourbon: A Learned Index for Log-Structured Merge Trees
- arxiv url: http://arxiv.org/abs/2005.14213v2
- Date: Fri, 30 Oct 2020 18:09:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 05:53:32.317223
- Title: From WiscKey to Bourbon: A Learned Index for Log-Structured Merge Trees
- Title(参考訳): WiscKeyからBourbonへ:ログ構造化されたマージツリーの学習指標
- Authors: Yifan Dai, Yien Xu, Aishwarya Ganesan, Ramnatthan Alagappan, Brian
Kroth, Andrea C. Arpaci-Dusseau, and Remzi H. Arpaci-Dusseau
- Abstract要約: BOURBONは、機械学習を利用して高速なルックアップを提供する、ログ構造化マージ(LSM)ツリーである。
BOURBONは、最先端のLSMと比較して、ルックアップ性能を1.23x-1.78x向上することを示す。
- 参考スコア(独自算出の注目度): 1.9003569830436575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce BOURBON, a log-structured merge (LSM) tree that utilizes machine
learning to provide fast lookups. We base the design and implementation of
BOURBON on empirically-grounded principles that we derive through careful
analysis of LSM design. BOURBON employs greedy piecewise linear regression to
learn key distributions, enabling fast lookup with minimal computation, and
applies a cost-benefit strategy to decide when learning will be worthwhile.
Through a series of experiments on both synthetic and real-world datasets, we
show that BOURBON improves lookup performance by 1.23x-1.78x as compared to
state-of-the-art production LSMs.
- Abstract(参考訳): 本稿では,機械学習を用いて高速なルックアップを提供するログ構造マージ(lsm)ツリーであるboulbonを紹介する。
我々は,LSM設計を慎重に分析することで導出する経験則に基づいて,BOURBONの設計と実装を行う。
BOURBONは、キーの分布を学習するために派手な線形回帰を採用し、最小限の計算で高速な検索を可能にし、学習の価値を決定するために費用対効果の戦略を適用している。
合成と実世界の両方のデータセットに関する一連の実験を通して、BOURBONは最先端のLSMと比較してルックアップ性能を1.23x-1.78倍改善することを示した。
関連論文リスト
- Bidirectional Trained Tree-Structured Decoder for Handwritten
Mathematical Expression Recognition [51.66383337087724]
Handwriting Mathematical Expression Recognition (HMER) タスクは、OCRの分野における重要な分岐である。
近年の研究では、双方向コンテキスト情報の導入により、HMERモデルの性能が大幅に向上することが示されている。
本稿では,MF-SLT と双方向非同期トレーニング (BAT) 構造を提案する。
論文 参考訳(メタデータ) (2023-12-31T09:24:21Z) - Compresso: Structured Pruning with Collaborative Prompting Learns
Compact Large Language Models [15.471290825100075]
我々はCompressoと呼ばれる大規模言語モデルを構築するための新しいパラダイムを導入する。
提案手法は,資源効率の高いプルーニングアルゴリズムとLLM自体の協調により,学習過程における最適プルーニング決定を学習する。
実験では、Compressoは様々な空間比でワンショットプルーニングベースラインを著しく上回り、それぞれ2.21%、11.43%、7.04%、および4.81%のスコアをコモンセンス推論、読解理解、MMLU、BBHベンチマークで達成している。
論文 参考訳(メタデータ) (2023-10-08T05:16:28Z) - Joint Learning of Label and Environment Causal Independence for Graph
Out-of-Distribution Generalization [60.4169201192582]
本稿では,ラベルと環境情報を完全に活用するために,ラベルと環境の因果独立(LECI)を導入することを提案する。
LECIは、合成データセットと実世界のデータセットの両方において、従来の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2023-06-01T19:33:30Z) - Principled Reinforcement Learning with Human Feedback from Pairwise or
$K$-wise Comparisons [79.98542868281473]
RLHF(Reinforcement Learning with Human Feedback)の理論的枠組みを提供する。
学習した報酬モデルに基づいてポリシーをトレーニングする際、MLEは失敗し、悲観的なMLEは特定のカバレッジ仮定の下で性能を改善したポリシーを提供する。
論文 参考訳(メタデータ) (2023-01-26T18:07:21Z) - Inverse Reinforcement Learning for Text Summarization [52.765898203824975]
本稿では,抽象的な要約モデルを学習するための効果的なパラダイムとして,逆強化学習(IRL)を導入する。
異なる領域におけるデータセット間の実験結果は、MLEおよびRLベースラインに対する要約のための提案したIRLモデルの優位性を示す。
論文 参考訳(メタデータ) (2022-12-19T23:45:05Z) - Principal Geodesic Analysis of Merge Trees (and Persistence Diagrams) [8.430851504111585]
本稿では,共有メモリ並列性を利用した効率的な反復アルゴリズムと,適合エネルギー勾配の解析式を導入する。
我々は,2つの典型的なPCAアプリケーションを統合することで,コントリビューションの有用性を示す。
MT-PGAベースの最初の2方向を利用して2次元レイアウトを生成する次元削減フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-22T09:17:22Z) - A deep learning approach to halo merger tree construction [0.24466725954625884]
銀河形成の半分析モデル(SAM)の鍵となる要素は、木構造にエンコードされたハロースの大量集合の歴史である。
機械学習技術,特にGAN(Generative Adversarial Networks)は,この問題に控えめな計算コストで対処するための,有望な新しいツールであることを示す。
論文 参考訳(メタデータ) (2022-05-31T17:45:42Z) - Learning to branch with Tree MDPs [6.754135838894833]
我々は、強化学習(RL)を通して、スクラッチから分岐規則を学習することを提案する。
木マルコフ決定過程 (tree Markov Decision Processes) や木MDP (tree MDPs) を提案する。
我々は,MDPが学習収束を改善するための計算実験を通じて,MILPにおける学習とブランチの問題に対処するための有望な枠組みを提供する。
論文 参考訳(メタデータ) (2022-05-23T07:57:32Z) - SPLADE v2: Sparse Lexical and Expansion Model for Information Retrieval [11.38022203865326]
SPLADEモデルは、最先端の高密度かつスパースなアプローチに関して、高度にスパースな表現と競争結果を提供する。
我々は、プール機構を変更し、文書拡張のみに基づいてモデルをベンチマークし、蒸留で訓練されたモデルを導入する。
全体として、SPLADEはTREC DL 2019のNDCG@10で9ドル以上のゲインで大幅に改善され、BEIRベンチマークで最先端の結果が得られた。
論文 参考訳(メタデータ) (2021-09-21T10:43:42Z) - Robustifying Algorithms of Learning Latent Trees with Vector Variables [92.18777020401484]
Recursive Grouping (RG) と Chow-Liu Recursive Grouping (CLRG) のサンプル複雑性について述べる。
RG,CLRG,Neighbor Joining (NJ) およびSpectral NJ (SNJ) をトラッピングした内積を用いて強化する。
我々は、潜在木の構造学習において、最初の既知のインスタンス依存の不合理性の結果を導出する。
論文 参考訳(メタデータ) (2021-06-02T01:37:52Z) - Principled Exploration via Optimistic Bootstrapping and Backward
Induction [84.78836146128238]
最適ブートストラップ・バックワード誘導(OB2I)による深層強化学習(DRL)の原理的探索法を提案する。
OB2IはDRLの非パラメトリックブートストラップを介して汎用UCB結合を構築する。
提案する UCB-bonus と LSVI-UCB の理論的接続を線形に構築する。
論文 参考訳(メタデータ) (2021-05-13T01:15:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。