論文の概要: Partitioned Learned Bloom Filter
- arxiv url: http://arxiv.org/abs/2006.03176v2
- Date: Sun, 4 Oct 2020 15:15:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 04:37:59.228144
- Title: Partitioned Learned Bloom Filter
- Title(参考訳): 分割学習ブルームフィルタ
- Authors: Kapil Vaidya, Eric Knorr, Tim Kraska, Michael Mitzenmacher
- Abstract要約: 最適化問題として最適モデル利用の問題の枠組みを示す。
多くの場合、ほぼ最適性能を達成できるアルゴリズムを導出する。
- 参考スコア(独自算出の注目度): 31.748077944821315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bloom filters are space-efficient probabilistic data structures that are used
to test whether an element is a member of a set, and may return false
positives. Recently, variations referred to as learned Bloom filters were
developed that can provide improved performance in terms of the rate of false
positives, by using a learned model for the represented set. However, previous
methods for learned Bloom filters do not take full advantage of the learned
model. Here we show how to frame the problem of optimal model utilization as an
optimization problem, and using our framework derive algorithms that can
achieve near-optimal performance in many cases. Experimental results from both
simulated and real-world datasets show significant performance improvements
from our optimization approach over both the original learned Bloom filter
constructions and previously proposed heuristic improvements.
- Abstract(参考訳): ブルームフィルタは空間効率の高い確率的データ構造であり、ある要素が集合のメンバーであるかどうかをテストし、偽陽性を返すために使用される。
近年, 表現集合の学習モデルを用いて, 偽陽性率の観点から性能を向上させることのできる学習ブルームフィルタが開発されている。
しかし、これまでの学習ブルームフィルタの手法は学習モデルを完全には活用していない。
ここでは、最適化問題として最適モデル利用の問題の枠組みを示し、多くの場合、最適に近い性能を達成できるアルゴリズムをフレームワークから導出する。
シミュレーションデータと実世界のデータの両方から得られた実験結果は、元の学習されたブルームフィルタの構成と以前に提案されたヒューリスティックな改善の両方に対して、我々の最適化アプローチから有意な性能改善を示しました。
関連論文リスト
- Permutation Invariant Learning with High-Dimensional Particle Filters [8.878254892409005]
深層モデルのシークエンシャルラーニングは、しばしば破滅的な忘れ物や可塑性の喪失といった課題に悩まされる。
本研究では,高次元粒子フィルタに基づく新しい置換不変学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-30T05:06:55Z) - Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - Functional Graphical Models: Structure Enables Offline Data-Driven Optimization [111.28605744661638]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z) - Data-driven Prior Learning for Bayesian Optimisation [5.199765487172328]
PLeBOと先行転送は少ない評価で良好な入力が得られることを示す。
学習先を検証し,伝達学習手法の広さと比較する。
PLeBOと先行転送は少ない評価で良好な入力が得られることを示す。
論文 参考訳(メタデータ) (2023-11-24T18:37:52Z) - A Critical Analysis of Classifier Selection in Learned Bloom Filters [0.3359875577705538]
フィルタ構築に使用されるデータの"複雑さ"は、そのパフォーマンスに大きく影響する可能性がある。
本稿では,学習ブルームフィルタの設計,解析,実装のための新しい手法を提案する。
提案手法とサポートソフトウェアは有効かつ有用であることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2022-11-28T17:17:18Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - Compressing (Multidimensional) Learned Bloom Filters [7.6058140480517356]
Bloomフィルタは、要素が基礎となる集合に含まれていないか、あるいは特定のエラー率に含まれていないかを明らかにする。
ディープラーニングモデルは、このメンバシップテストの問題を解決するために使用される。
学習したブルームフィルタの利点は、膨大なデータを考慮する場合にのみ明らかである。
論文 参考訳(メタデータ) (2022-08-05T07:54:48Z) - Optimizer Amalgamation [124.33523126363728]
私たちは、Amalgamationという新しい問題の研究を動機付けています。"Teacher"アマルガメーションのプールを、より強力な問題固有のパフォーマンスを持つ単一の"学生"にどのように組み合わせるべきなのでしょうか?
まず、勾配降下による解析のプールをアマルガメートする3つの異なるメカニズムを定義する。
また, プロセスの分散を低減するため, 目標を摂動させることでプロセスの安定化を図る。
論文 参考訳(メタデータ) (2022-03-12T16:07:57Z) - Contextual Bayesian optimization with binary outputs [0.5076419064097732]
多くの実世界の状況において、客観的関数は、直接観察に影響を与える制御された「コンテキスト」や「環境」で評価することができる。
ここではベイジアンアクティブラーニングと最適化のアイデアを組み合わせて、各イテレーションで最適なコンテキストと最適化パラメータを効率的に選択する。
本稿では,本アルゴリズムの性能を実証し,視覚心理学における具体的な応用への取り組みについて述べる。
論文 参考訳(メタデータ) (2021-11-05T12:09:46Z) - LQF: Linear Quadratic Fine-Tuning [114.3840147070712]
本稿では,非線形微調整に匹敵する性能を実現する事前学習モデルの線形化手法を提案する。
LQFはアーキテクチャの単純な変更、損失関数、そして一般的に分類に使用される最適化で構成されている。
論文 参考訳(メタデータ) (2020-12-21T06:40:20Z) - Fast Rates for Contextual Linear Optimization [52.39202699484225]
提案手法は, 下流決定性能を直接最適化する手法よりもはるかに高速な, 後悔の収束率を実現する。
予測モデルは、既存のツールを使ったトレーニングが簡単かつ高速で、解釈が簡単で、私たちが示しているように、非常にうまく機能する決定につながる。
論文 参考訳(メタデータ) (2020-11-05T18:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。