論文の概要: RadixSpline: A Single-Pass Learned Index
- arxiv url: http://arxiv.org/abs/2004.14541v2
- Date: Fri, 22 May 2020 21:01:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 05:36:44.946197
- Title: RadixSpline: A Single-Pass Learned Index
- Title(参考訳): RadixSpline: シングルパス学習インデックス
- Authors: Andreas Kipf, Ryan Marcus, Alexander van Renen, Mihail Stoian, Alfons
Kemper, Tim Kraska, Thomas Neumann
- Abstract要約: RadixSpline(RS)は、データに1回のパスで構築できる学習インデックスです。
RSは2つのパラメータしか持たないにもかかわらず、すべてのデータセットで競合的な結果を達成する。
- 参考スコア(独自算出の注目度): 84.84747738666263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research has shown that learned models can outperform state-of-the-art
index structures in size and lookup performance. While this is a very promising
result, existing learned structures are often cumbersome to implement and are
slow to build. In fact, most approaches that we are aware of require multiple
training passes over the data.
We introduce RadixSpline (RS), a learned index that can be built in a single
pass over the data and is competitive with state-of-the-art learned index
models, like RMI, in size and lookup performance. We evaluate RS using the SOSD
benchmark and show that it achieves competitive results on all datasets,
despite the fact that it only has two parameters.
- Abstract(参考訳): 最近の研究では、学習されたモデルは、最先端のインデックス構造をサイズとルックアップ性能で上回ることができることが示されている。
これは非常に有望な結果ですが、既存の学習構造は実装が面倒で、ビルドが遅くなります。
実際、私たちが認識しているほとんどのアプローチでは、データに複数のトレーニングパスが必要です。
radixspline (rs) はデータに対する単一のパスで構築でき、rmiのような最先端の学習インデックスモデルと競合し、サイズとルックアップのパフォーマンスが向上する学習インデックスである。
sosdベンチマークを用いてrsを評価し,2つのパラメータしか持たないにもかかわらず,すべてのデータセットで競争力のある結果が得られることを示す。
関連論文リスト
- Can LLMs Separate Instructions From Data? And What Do We Even Mean By That? [60.50127555651554]
大規模言語モデル(LLM)は、多くの実用的なアプリケーションにおいて印象的な結果を示すが、基本的な安全性機能は欠如している。
これにより、間接的なプロンプトインジェクションのような操作に脆弱になり、一般に安全クリティカルなタスクには適さない。
モデル出力から計算可能な命令データ分離の形式的尺度と経験的変量を導入する。
論文 参考訳(メタデータ) (2024-03-11T15:48:56Z) - SPRINT: A Unified Toolkit for Evaluating and Demystifying Zero-shot
Neural Sparse Retrieval [92.27387459751309]
ニューラルスパース検索を評価するための統一PythonツールキットであるSPRINTを提供する。
我々は、よく認識されているベンチマークBEIRにおいて、強く再現可能なゼロショットスパース検索ベースラインを確立する。
SPLADEv2は、元のクエリとドキュメントの外で、ほとんどのトークンでスパース表現を生成する。
論文 参考訳(メタデータ) (2023-07-19T22:48:02Z) - Learning Phone Recognition from Unpaired Audio and Phone Sequences Based
on Generative Adversarial Network [58.82343017711883]
そこで本研究では,不適切な音声系列や発話から直接学習する方法について検討する。
GAN訓練を第1段階に導入し,無声音声と音声シーケンスのマッピング関係を求める。
第2段階では、発電機の出力からトレーニングするために別のHMMモデルが導入され、性能が向上する。
論文 参考訳(メタデータ) (2022-07-29T09:29:28Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - SPLADE v2: Sparse Lexical and Expansion Model for Information Retrieval [11.38022203865326]
SPLADEモデルは、最先端の高密度かつスパースなアプローチに関して、高度にスパースな表現と競争結果を提供する。
我々は、プール機構を変更し、文書拡張のみに基づいてモデルをベンチマークし、蒸留で訓練されたモデルを導入する。
全体として、SPLADEはTREC DL 2019のNDCG@10で9ドル以上のゲインで大幅に改善され、BEIRベンチマークで最先端の結果が得られた。
論文 参考訳(メタデータ) (2021-09-21T10:43:42Z) - The Price of Tailoring the Index to Your Data: Poisoning Attacks on
Learned Index Structures [9.567119607658299]
本研究は,学習指標構造に対する毒素攻撃に関する最初の研究である。
累積分布関数に基づいて学習した線形回帰モデルに対する最初の中毒攻撃を定式化する。
我々は,本手法を一般化し,学習指標構造のより先進的な2段階設計に対処する。
論文 参考訳(メタデータ) (2020-08-01T17:12:04Z) - COAX: Correlation-Aware Indexing on Multidimensional Data with Soft
Functional Dependencies [3.670422696827525]
データセットの属性間の相関関係を学習する多次元データのための学習指標であるCOAXを提案する。
実験により,データ中の関連属性を予測することにより,クエリ実行時間を短縮し,インデックスのメモリオーバーヘッドを低減することができることがわかった。
論文 参考訳(メタデータ) (2020-06-29T21:22:15Z) - A Close Look at Deep Learning with Small Data [0.0]
モデル複雑性は、クラス毎に数個のサンプルしか利用できない場合に重要な要素であることを示す。
また、標準的なデータ拡張であっても、認識性能を大きなマージンで向上させることができることを示す。
論文 参考訳(メタデータ) (2020-03-28T17:11:29Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。