論文の概要: Piece of CAKE: Adaptive Execution Engines via Microsecond-Scale Learning
- arxiv url: http://arxiv.org/abs/2602.04181v1
- Date: Wed, 04 Feb 2026 03:41:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.355783
- Title: Piece of CAKE: Adaptive Execution Engines via Microsecond-Scale Learning
- Title(参考訳): CAKEのピース:マイクロ秒単位の学習による適応型実行エンジン
- Authors: Zijie Zhao, Ryan Marcus,
- Abstract要約: CAKEは、マイクロスケールのコンテキスト多重武装バンディットを使用して、各データ"モーセル"に対して最適なカーネルを選択することを学ぶ。
C CAKEは、最先端の静的よりもエンドツーエンドのワークロード遅延を最大2倍削減できる。
- 参考スコア(独自算出の注目度): 5.376936817089544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-level database operators often admit multiple physical implementations ("kernels") that are semantically equivalent but have vastly different performance characteristics depending on the input data distribution. Existing database systems typically rely on static heuristics or worst-case optimal defaults to select these kernels, often missing significant performance opportunities. In this work, we propose CAKE (Counterfactual Adaptive Kernel Execution), a system that learns to select the optimal kernel for each data "morsel" using a microsecond-scale contextual multi-armed bandit. CAKE circumvents the high latency of traditional reinforcement learning by exploiting the cheapness of counterfactuals -- selectively running multiple kernels to obtain full feedback -- and compiling policies into low-latency regret trees. Experimentally, we show that CAKE can reduce end-to-end workload latency by up to 2x compared to state-of-the-art static heuristics.
- Abstract(参考訳): 低レベルのデータベースオペレータは、セマンティックに等価であるが、入力データ分布によって大きく異なる性能特性を持つ複数の物理実装(カーネル)をしばしば認める。
既存のデータベースシステムは、通常、静的ヒューリスティックや最悪の場合、これらのカーネルを選択するのに最適なデフォルトに依存しており、しばしば大きなパフォーマンスの機会を欠いている。
本研究では,マイクロ秒スケールのマルチアームバンディットを用いて,各データに対して最適なカーネルを選択することを学習するシステムであるCAKE(Counterfactual Adaptive Kernel Execution)を提案する。
CAKEは、カウンターファクトの安価さ、選択的に複数のカーネルを実行して完全なフィードバックを得るという従来の強化学習のレイテンシを回避し、低レイテンシの後悔ツリーにポリシーをコンパイルすることで、従来の強化学習のレイテンシを回避する。
実験により、CAKEは最先端の静的ヒューリスティックと比較して、エンドツーエンドのワークロード遅延を最大2倍削減できることを示した。
関連論文リスト
- Outrunning LLM Cutoffs: A Live Kernel Crash Resolution Benchmark for All [57.23434868678603]
Live-kBenchは、新たに発見されたカーネルバグのエージェントをスクラップし、評価するセルフ進化ベンチマークの評価フレームワークである。
kEnvは、カーネルのコンパイル、実行、フィードバックのためのエージェントに依存しないクラッシュ解決環境である。
kEnvを用いて3つの最先端エージェントをベンチマークし、最初の試行で74%のクラッシュを解決したことを示す。
論文 参考訳(メタデータ) (2026-02-02T19:06:15Z) - Benchmarking machine learning models for multi-class state recognition in double quantum dot data [0.0]
本稿では,Double-QD CSDにおけるマルチクラス状態認識のための4つのモダン機械学習(ML)アーキテクチャのベンチマーク研究を行う。
よりリソース集約的なモデルであるU-Netとビジュアルトランスフォーマー(ViT)は、合成データ上で最高のMSEスコア(1-mathrmMSE$と定義される)を得る。
CNN は実験用 CSD 上で最も好ましいトレードオフを提供し、U-Net や ViT よりも2桁少ないパラメータで高い精度を達成する。
論文 参考訳(メタデータ) (2025-11-27T13:38:57Z) - Adaptive Kernel Design for Bayesian Optimization Is a Piece of CAKE with LLMs [31.28294215349796]
大規模言語モデル(LLM)を用いたBO強化のためのコンテキスト認識カーネル進化(CAKE)を提案する。
我々の新しいCAKEベースのBO法は、さまざまな現実世界のタスクで確立されたベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-09-22T16:39:12Z) - Joker: Joint Optimization Framework for Lightweight Kernel Machines [20.45405359815043]
我々は,KRR,ロジスティック回帰,サポートベクタマシンなど,多様なカーネルモデルを対象とした共同最適化フレームワークJokerを提案する。
実験によると、Jokerは最大90%のメモリを節約できるが、最先端のメソッドよりもトレーニング時間とパフォーマンス(あるいはさらに良い)を達成する。
論文 参考訳(メタデータ) (2025-05-23T11:36:45Z) - A Universal Framework for Compressing Embeddings in CTR Prediction [68.27582084015044]
本稿では,事前学習した埋め込みを定量化することにより,埋め込みテーブルを圧縮するモデル非依存型埋め込み圧縮(MEC)フレームワークを提案する。
まず、高頻度特徴と低周波特徴のバランスをとるために、人気重み付け正規化を適用します。
3つのデータセットの実験により,提案手法はメモリ使用量を50倍以上削減し,レコメンデーション性能を維持・改善する。
論文 参考訳(メタデータ) (2025-02-21T10:12:34Z) - KernelBench: Can LLMs Write Efficient GPU Kernels? [36.4117525096377]
KernelBenchは、高速で正確なカーネルを記述する言語モデルの能力を評価するためのオープンソースのフレームワークである。
本稿では,関数的に正しい生成カーネルの割合を計測する,新しい評価基準であるfast_pを紹介する。
実験の結果,フロンティア推論モデルが最も優れているが,全体としては不足していることがわかった。
論文 参考訳(メタデータ) (2025-02-14T19:30:53Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data [93.76907759950608]
本稿では,垂直分割データに対する2倍のカーネル学習アルゴリズムを提案する。
本稿では,FDSKLがカーネルを扱う場合,最先端のフェデレーション学習手法よりもはるかに高速であることを示す。
論文 参考訳(メタデータ) (2020-08-14T05:46:56Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。