論文の概要: RCCDA: Adaptive Model Updates in the Presence of Concept Drift under a Constrained Resource Budget
- arxiv url: http://arxiv.org/abs/2505.24149v1
- Date: Fri, 30 May 2025 02:49:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.737453
- Title: RCCDA: Adaptive Model Updates in the Presence of Concept Drift under a Constrained Resource Budget
- Title(参考訳): RCCDA:制約付き資源予算下におけるコンセプトドリフトの存在下での適応モデル更新
- Authors: Adam Piaseczny, Md Kamran Chowdhury Shisher, Shiqiang Wang, Christopher G. Brinton,
- Abstract要約: リアルタイム機械学習アルゴリズムは、コンセプトドリフトにモデルを適用するという課題に直面していることが多い。
既存のソリューションは、しばしば資源制約された環境に対して高い計算オーバーヘッドをもたらすドリフト検出法に依存している。
本稿では,MLトレーニングのダイナミクスを最適化し,事前定義されたリソース制約に対する厳格なコンプライアンスを確保する動的モデル更新ポリシーであるRCCDAを提案する。
- 参考スコア(独自算出の注目度): 19.391900930310253
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) algorithms deployed in real-world environments are often faced with the challenge of adapting models to concept drift, where the task data distributions are shifting over time. The problem becomes even more difficult when model performance must be maintained under adherence to strict resource constraints. Existing solutions often depend on drift-detection methods that produce high computational overhead for resource-constrained environments, and fail to provide strict guarantees on resource usage or theoretical performance assurances. To address these shortcomings, we propose RCCDA: a dynamic model update policy that optimizes ML training dynamics while ensuring strict compliance to predefined resource constraints, utilizing only past loss information and a tunable drift threshold. In developing our policy, we analytically characterize the evolution of model loss under concept drift with arbitrary training update decisions. Integrating these results into a Lyapunov drift-plus-penalty framework produces a lightweight policy based on a measurable accumulated loss threshold that provably limits update frequency and cost. Experimental results on three domain generalization datasets demonstrate that our policy outperforms baseline methods in inference accuracy while adhering to strict resource constraints under several schedules of concept drift, making our solution uniquely suited for real-time ML deployments.
- Abstract(参考訳): 実環境にデプロイされる機械学習(ML)アルゴリズムは、タスクデータの分散が時間とともにシフトしているドリフトの概念にモデルを適用するという課題に直面していることが多い。
厳格なリソース制約に従ってモデルパフォーマンスを維持する必要があると、この問題はさらに難しくなります。
既存のソリューションは、しばしば資源制約された環境に対して高い計算オーバーヘッドをもたらすドリフト検出法に依存し、資源使用量や理論的性能保証に関する厳密な保証を提供することができない。
これらの欠点に対処するため、RCCDA:MLトレーニングのダイナミクスを最適化し、過去の損失情報と調整可能なドリフトしきい値のみを利用して、予め定義されたリソース制約に厳格なコンプライアンスを確保するダイナミックモデル更新ポリシーを提案する。
政策開発において、任意のトレーニング更新決定を行い、概念ドリフト下でのモデル損失の進化を解析的に特徴付ける。
これらの結果をリアプノフドリフト・プラス・ペナルティ・フレームワークに統合すると、測定可能な累積損失閾値に基づいて軽量なポリシーが作成され、更新頻度とコストが確実に制限される。
3つの領域一般化データセットによる実験結果から,提案手法は概念ドリフトのいくつかのスケジュール下での厳密な資源制約に固執しつつ,推論精度において基本手法よりも優れており,リアルタイムMLデプロイメントに一意に適合することが示された。
関連論文リスト
- Aligning Diffusion Model with Problem Constraints for Trajectory Optimization [0.6629765271909505]
本稿では,拡散モデルと問題固有の制約を明示的に整合させる新しい手法を提案する。
私たちのアプローチは、Dynamic Data-Driven Application Systems(DDDAS)フレームワークとの統合に適しています。
論文 参考訳(メタデータ) (2025-04-01T01:46:05Z) - LeanTTA: A Backpropagation-Free and Stateless Approach to Quantized Test-Time Adaptation on Edge Devices [13.355021314836852]
本稿では、エッジデバイスに適した量子化テスト時間適応のための、バックプロパゲーションフリーでステートレスな新しいフレームワークであるLeanTTAを紹介する。
バックプロパゲーションなしで正規化統計を動的に更新することで計算コストを最小化する。
我々は,センサのモダリティにまたがる枠組みを検証し,最先端のTTA手法よりも大幅に改善したことを示す。
論文 参考訳(メタデータ) (2025-03-20T06:27:09Z) - Diffusion Predictive Control with Constraints [51.91057765703533]
拡散予測制御(Diffusion predictive control with constraints,DPCC)は、拡散に基づく制御のアルゴリズムである。
DPCCは,新しいテスト時間制約を満たすために,既存の手法よりも優れた性能を示すロボットマニピュレータのシミュレーションを通して示す。
論文 参考訳(メタデータ) (2024-12-12T15:10:22Z) - Online Resource Allocation for Edge Intelligence with Colocated Model Retraining and Inference [5.6679198251041765]
我々は、トレーニングモデルと推論の精度を適応的にバランスするリソース割り当てを最適化するために、ORRICというオンライン近似アルゴリズムを導入する。
ORRICの競合比は従来の推論オンリーパラダイムよりも優れている。
論文 参考訳(メタデータ) (2024-05-25T03:05:19Z) - Efficiently Training Deep-Learning Parametric Policies using Lagrangian Duality [55.06411438416805]
制約付きマルコフ決定プロセス(CMDP)は、多くの高度な応用において重要である。
本稿では,パラメトリックアクターポリシーを効率的に訓練するための2段階深度決定規則(TS-DDR)を提案する。
現状の手法と比較して, 解の質を高め, 数桁の計算時間を削減できることが示されている。
論文 参考訳(メタデータ) (2024-05-23T18:19:47Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - DROMO: Distributionally Robust Offline Model-based Policy Optimization [0.0]
モデルベース制御によるオフライン強化学習の問題点を考察する。
分散ロバストなオフラインモデルベースポリシー最適化(DROMO)を提案する。
論文 参考訳(メタデータ) (2021-09-15T13:25:14Z) - Safe Continuous Control with Constrained Model-Based Policy Optimization [0.0]
制約付き高次元制御のためのモデルベースセーフ探索アルゴリズムを提案する。
また、モデル生成データによるポリシー探索を高速化する実用的なアルゴリズムも導入する。
論文 参考訳(メタデータ) (2021-04-14T15:20:55Z) - MOPO: Model-based Offline Policy Optimization [183.6449600580806]
オフライン強化学習(英語: offline reinforcement learning, RL)とは、以前に収集された大量のデータから完全に学習ポリシーを学習する問題を指す。
既存のモデルベースRLアルゴリズムは,すでにオフライン設定において大きな利益を上げていることを示す。
本稿では,既存のモデルに基づくRL法を,力学の不確実性によって人為的に罰せられる報酬で適用することを提案する。
論文 参考訳(メタデータ) (2020-05-27T08:46:41Z) - Guided Constrained Policy Optimization for Dynamic Quadrupedal Robot
Locomotion [78.46388769788405]
我々は,制約付きポリシー最適化(CPPO)の実装に基づくRLフレームワークであるGCPOを紹介する。
誘導制約付きRLは所望の最適値に近い高速収束を実現し,正確な報酬関数チューニングを必要とせず,最適かつ物理的に実現可能なロボット制御動作を実現することを示す。
論文 参考訳(メタデータ) (2020-02-22T10:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。