論文の概要: In-Context Adaptation to Concept Drift for Learned Database Operations
- arxiv url: http://arxiv.org/abs/2505.04404v2
- Date: Thu, 22 May 2025 06:16:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.78162
- Title: In-Context Adaptation to Concept Drift for Learned Database Operations
- Title(参考訳): 学習したデータベース操作に対する概念ドリフトへの文脈適応
- Authors: Jiaqi Zhu, Shaofeng Cai, Yanyan Shen, Gang Chen, Fang Deng, Beng Chin Ooi,
- Abstract要約: FLAIRは学習したデータベース操作のためのオンライン適応フレームワークである。
ランタイムパラメータの最適化の必要性を排除し、現在のコンセプトに沿った予測を提供する。
最大で5.2倍高速な適応を実現し、濃度推定の誤差を22.5%削減する。
- 参考スコア(独自算出の注目度): 31.530801633188233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning has demonstrated transformative potential for database operations, such as query optimization and in-database data analytics. However, dynamic database environments, characterized by frequent updates and evolving data distributions, introduce concept drift, which leads to performance degradation for learned models and limits their practical applicability. Addressing this challenge requires efficient frameworks capable of adapting to shifting concepts while minimizing the overhead of retraining or fine-tuning. In this paper, we propose FLAIR, an online adaptation framework that introduces a new paradigm called \textit{in-context adaptation} for learned database operations. FLAIR leverages the inherent property of data systems, i.e., immediate availability of execution results for predictions, to enable dynamic context construction. By formalizing adaptation as $f:(\mathbf{x} \,| \,C_t) \to \mathbf{y}$, with $C_t$ representing a dynamic context memory, FLAIR delivers predictions aligned with the current concept, eliminating the need for runtime parameter optimization. To achieve this, FLAIR integrates two key modules: a Task Featurization Module for encoding task-specific features into standardized representations, and a Dynamic Decision Engine, pre-trained via Bayesian meta-training, to adapt seamlessly using contextual information at runtime. Extensive experiments across key database tasks demonstrate that FLAIR outperforms state-of-the-art baselines, achieving up to 5.2x faster adaptation and reducing error by 22.5% for cardinality estimation.
- Abstract(参考訳): 機械学習は、クエリ最適化やデータベース内データ分析など、データベース操作の変換可能性を示している。
しかし、頻繁な更新とデータ分散の進化を特徴とする動的データベース環境は、学習モデルの性能低下と実用性の制限をもたらすコンセプトドリフトを導入している。
この課題に対処するには、再トレーニングや微調整のオーバーヘッドを最小限に抑えながら、概念のシフトに適応できる効率的なフレームワークが必要である。
本稿では,学習データベース操作のための新しいパラダイムである「textit{in-context adaptation」を導入するオンライン適応フレームワークであるFLAIRを提案する。
FLAIRは、データシステム固有の特性、すなわち予測のための実行結果の即時可用性を活用して、動的コンテキスト構築を可能にする。
適応を$f:(\mathbf{x} \,| \,C_t) \to \mathbf{y}$として形式化し、動的コンテキストメモリを表す$C_t$で、FLAIRは現在の概念に沿った予測を提供し、ランタイムパラメータの最適化の必要性を排除する。
これを実現するためにFLAIRは、タスク固有の機能を標準化された表現にエンコードするTask Featurization Moduleと、ベイジアンメタトレーニングを通じて事前トレーニングされたDynamic Decision Engineという2つの主要なモジュールを統合し、実行時にコンテキスト情報を使用してシームレスに適応する。
主要なデータベースタスクにわたる大規模な実験により、FLAIRは最先端のベースラインを上回り、最大で5.2倍高速な適応を実現し、濃度推定の誤差を22.5%削減した。
関連論文リスト
- An Adaptive ML Framework for Power Converter Monitoring via Federated Transfer Learning [0.0]
本研究では、熱機械学習モデル(ML)をパワーコンバータに適用するための代替フレームワーク構成について検討する。
フレームワークは、3つの最先端のドメイン適応技術を適用することで、複数のクライアントによって漸進的に適応されるベースモデルから始まります。
フィールドデータによる検証は、ファインチューニングが簡単なTLアプローチを高精度に提供し、実用的な応用に適していることを示す。
論文 参考訳(メタデータ) (2025-04-23T16:39:54Z) - Dynamic Allocation Hypernetwork with Adaptive Model Recalibration for FCL [49.508844889242425]
適応型モデル再校正(textbfFedDAH)を用いた動的アロケーション・ハイパーネットワークの医療領域におけるサーバサイドFCLパターンを提案する。
バイアス最適化のために,従来のモデルの変更候補を現在のサーバ更新に組み込むために,新しい適応モデル再校正(AMR)を導入する。
AMOSデータセットの実験では、異なるタスクストリームを持つサイトの他のFCLメソッドよりもFedDAHの方が優れていることが示されています。
論文 参考訳(メタデータ) (2025-03-23T13:12:56Z) - Towards Generalizable Trajectory Prediction Using Dual-Level Representation Learning And Adaptive Prompting [107.4034346788744]
既存の車両軌道予測モデルは、一般化可能性、予測の不確実性、複雑な相互作用を扱う。
本研究では,(1)自己拡張(SD)とマスドレコンストラクション(MR)による二重レベル表現学習,グローバルコンテキストと細部の詳細の収集,(2)レジスタベースのクエリと事前学習の強化,クラスタリングと抑圧の必要性の排除,(3)微調整中の適応型プロンプトチューニング,メインアーキテクチャの凍結,および少数のプロンプトの最適化といった,新たなトラジェクタ予測フレームワークであるPerceiverを提案する。
論文 参考訳(メタデータ) (2025-01-08T20:11:09Z) - Adaptive Data Optimization: Dynamic Sample Selection with Scaling Laws [59.03420759554073]
本稿では,オンライン手法でデータ分散を最適化するアルゴリズムであるAdaptive Data Optimization (ADO)を導入する。
ADOは外部の知識やプロキシモデル、モデル更新の変更を必要としない。
ADOは、ドメインごとのスケーリング法則を使用して、トレーニング中の各ドメインの学習ポテンシャルを推定し、データ混合を調整する。
論文 参考訳(メタデータ) (2024-10-15T17:47:44Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Data Augmentation through Expert-guided Symmetry Detection to Improve
Performance in Offline Reinforcement Learning [0.0]
マルコフ決定過程(MDP)の動的モデルのオフライン推定は非自明な作業である。
近年の研究では、密度推定法に依存する専門家誘導パイプラインが、決定論的環境において、この構造を効果的に検出できることが示されている。
学習したMDPを解き、実際の環境に最適化されたポリシーを適用すると、前者の結果が性能改善につながることを示す。
論文 参考訳(メタデータ) (2021-12-18T14:32:32Z) - Learning Neural Models for Natural Language Processing in the Face of
Distributional Shift [10.990447273771592]
特定のデータセットでひとつのタスクを実行するための強力な神経予測器をトレーニングするNLPのパラダイムが、さまざまなアプリケーションで最先端のパフォーマンスを実現している。
データ分布が定常である、すなわち、トレーニングとテストの時間の両方で、データは固定された分布からサンプリングされる、という仮定に基づいて構築される。
この方法でのトレーニングは、人間が絶えず変化する情報の流れの中で学習し、操作できる方法と矛盾する。
データ分散がモデル寿命の経過とともにシフトすることが期待される実世界のユースケースに不適応である。
論文 参考訳(メタデータ) (2021-09-03T14:29:20Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - On-the-Fly Adaptation of Source Code Models using Meta-Learning [28.98699307030983]
文脈適応の問題はメタラーニングの問題である。
我々は、欠落したトークンの予測を改善するために、ファイル内の情報から最もよく学習できるベースソースコードモデルを訓練する。
大規模なJava GitHubコーパスの実験において、パフォーマンスの改善を実証した。
論文 参考訳(メタデータ) (2020-03-26T07:11:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。