論文の概要: Optimal Resource Allocation for ML Model Training and Deployment under Concept Drift
- arxiv url: http://arxiv.org/abs/2512.12816v1
- Date: Sun, 14 Dec 2025 19:42:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.454412
- Title: Optimal Resource Allocation for ML Model Training and Deployment under Concept Drift
- Title(参考訳): 概念ドリフト下におけるMLモデルの訓練と展開のための最適資源配分
- Authors: Hasan Burhan Beytur, Gustavo de Veciana, Haris Vikalo, Kevin S Chan,
- Abstract要約: 本研究では,機械学習モデル(ML)の学習と展開のためのリソースを,コンセプトドリフトと限られた予算の下で割り当てる方法について検討する。
IMRL(Increasing Residual Life)の下では、トレーニングポリシーは老朽化した概念特性に依存しており、直感的な持続時間は確実に準最適であることを示す。
これらの結果は、連続学習、分散、適応MLシステムに影響を及ぼす概念に基づくアルゴリズム的MLモデル管理の理論的および基礎を提供する。
- 参考スコア(独自算出の注目度): 22.3333396225412
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study how to allocate resources for training and deployment of machine learning (ML) models under concept drift and limited budgets. We consider a setting in which a model provider distributes trained models to multiple clients whose devices support local inference but lack the ability to retrain those models, placing the burden of performance maintenance on the provider. We introduce a model-agnostic framework that captures the interaction between resource allocation, concept drift dynamics, and deployment timing. We show that optimal training policies depend critically on the aging properties of concept durations. Under sudden concept changes, we derive optimal training policies subject to budget constraints when concept durations follow distributions with Decreasing Mean Residual Life (DMRL), and show that intuitive heuristics are provably suboptimal under Increasing Mean Residual Life (IMRL). We further study model deployment under communication constraints, prove that the associated optimization problem is quasi-convex under mild conditions, and propose a randomized scheduling strategy that achieves near-optimal client-side performance. These results offer theoretical and algorithmic foundations for cost-efficient ML model management under concept drift, with implications for continual learning, distributed inference, and adaptive ML systems.
- Abstract(参考訳): 本研究では,機械学習モデル(ML)の学習と展開のためのリソースを,コンセプトドリフトと限られた予算の下で割り当てる方法について検討する。
モデルプロバイダは、ローカル推論をサポートするが、それらのモデルを再トレーニングする能力に欠ける複数のクライアントに対して、トレーニングされたモデルを配布する。
本稿では,資源割り当て,コンセプトドリフトダイナミックス,デプロイメントタイミングの相互作用を捉えるモデルに依存しないフレームワークを提案する。
最適トレーニングポリシは,概念期間の老化特性に大きく依存することを示す。
急激な概念変更の下では,概念持続時間がDMRL(Derreasing Mean Residual Life)の分布に従えば,予算制約を受ける最適トレーニング方針を導出し,直感的ヒューリスティックが即時的最適であることを示す。
さらに、通信制約下でのモデル配置について検討し、関連する最適化問題は、穏やかな条件下で準凸であることを証明し、ほぼ最適なクライアント側性能を実現するランダム化スケジューリング戦略を提案する。
これらの結果は、連続学習、分散推論、適応型MLシステムといった、コスト効率の高いMLモデル管理のための理論的およびアルゴリズム的な基礎を提供する。
関連論文リスト
- Bridging VLMs and Embodied Intelligence with Deliberate Practice Policy Optimization [72.20212909644017]
Deliberate Practice Policy Optimization (DPPO) はメタ認知型メタループのトレーニングフレームワークである。
DPPOは教師付き微調整(能力拡張)と強化学習(技能向上)の交互に行う
実証的には、DPPO(Pelican-VL 1.0)で視覚言語を具現化したモデルをトレーニングすると、ベースモデルよりも20.3%パフォーマンスが向上する。
私たちはモデルとコードをオープンソースにして、データとリソースのボトルネックを軽減する最初の体系的なフレームワークを提供しています。
論文 参考訳(メタデータ) (2025-11-20T17:58:04Z) - Post-hoc Stochastic Concept Bottleneck Models [18.935442650741]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、高レベルな人間の理解可能な概念を通じて対象変数を予測する解釈可能なモデルである。
バックボーンモデルを再学習することなく,概念上の正規分布で事前学習した任意のCBMを増強する軽量な手法であるポストホック概念ボトルネックモデル(PSCBM)を導入する。
その結果,PSCBMは介入下でのCBMよりも優れた性能を示す一方で,スクラッチから類似モデルを再訓練するよりもはるかに効率的であることがわかった。
論文 参考訳(メタデータ) (2025-10-09T13:42:54Z) - TCPO: Thought-Centric Preference Optimization for Effective Embodied Decision-making [75.29820290660065]
本稿では,効果的な具体的意思決定のための思考中心推論最適化(TCPO)を提案する。
モデルの中間的推論プロセスの整合性を強調し、モデル劣化の問題を緩和する。
ALFWorld環境での実験では、平均成功率は26.67%であり、RL4VLMよりも6%向上している。
論文 参考訳(メタデータ) (2025-09-10T11:16:21Z) - RCCDA: Adaptive Model Updates in the Presence of Concept Drift under a Constrained Resource Budget [28.53294084812961]
リアルタイム機械学習アルゴリズムは、コンセプトドリフトにモデルを適用するという課題に直面していることが多い。
既存のソリューションは、しばしば資源制約された環境に対して高い計算オーバーヘッドをもたらすドリフト検出法に依存している。
本稿では,MLトレーニングのダイナミクスを最適化し,事前定義されたリソース制約へのコンプライアンスを確保した動的モデル更新ポリシーであるRCCDAを提案する。
論文 参考訳(メタデータ) (2025-05-30T02:49:42Z) - Will Pre-Training Ever End? A First Step Toward Next-Generation Foundation MLLMs via Self-Improving Systematic Cognition [89.50068130832635]
自己改善認知 (SIcog) は、マルチモーダル知識によって次世代のMLLMを構築するための自己学習フレームワークである。
ステップバイステップの視覚的理解のためのChain-of-Descriptionを提案し、詳細なマルチモーダル推論をサポートするために構造化されたChain-of-Thought(CoT)推論を統合する。
実験は、マルチモーダル認知を増強したMLLMの開発におけるSIcogの有効性を示す。
論文 参考訳(メタデータ) (2025-03-16T00:25:13Z) - Reward-Guided Speculative Decoding for Efficient LLM Reasoning [80.55186052123196]
Reward-Guided Speculative Decoding (RSD)は,大規模言語モデル(LLM)における推論の効率向上を目的とした新しいフレームワークである。
RSDは、厳密な偏りを強制する既存の投機的復号法とは対照的に、制御されたバイアスをハイリワード出力の優先順位付けに取り入れている。
RSDは,対象モデルのみでの復号化に対して,高い効率向上を実現し,並列復号法よりも高い精度を実現している。
論文 参考訳(メタデータ) (2025-01-31T17:19:57Z) - Online Client Scheduling and Resource Allocation for Efficient Federated Edge Learning [9.451084740123198]
フェデレートラーニング(FL)は、エッジデバイスが生データを共有せずに、機械学習モデルを協調的にトレーニングすることを可能にする。
しかし、電力、帯域幅などの制約のあるリソースを持つモバイルエッジネットワーク上にFLをデプロイすることは、高いトレーニングレイテンシと低いモデルの精度に悩まされる。
本稿では,資源制約と不確実性の下で,モバイルエッジネットワーク上でのFLの最適なクライアントスケジューリングとリソース割り当てについて検討する。
論文 参考訳(メタデータ) (2024-09-29T01:56:45Z) - Optimization of geological carbon storage operations with multimodal latent dynamic model and deep reinforcement learning [1.8549313085249324]
本稿では,高速フロー予測とGCSの制御最適化のためのディープラーニングフレームワークであるMLDモデルを紹介する。
既存のモデルとは異なり、MDDは多様な入力モダリティをサポートし、包括的なデータインタラクションを可能にする。
この手法は従来の手法よりも優れており、計算資源を60%以上削減し、最も高いNPVを達成する。
論文 参考訳(メタデータ) (2024-06-07T01:30:21Z) - Boosting Inference Efficiency: Unleashing the Power of Parameter-Shared
Pre-trained Language Models [109.06052781040916]
本稿ではパラメータ共有言語モデルの推論効率を向上させる手法を提案する。
また、完全あるいは部分的に共有されたモデルにつながる単純な事前学習手法を提案する。
その結果,本手法が自己回帰的および自己符号化的PLMに与える影響が示された。
論文 参考訳(メタデータ) (2023-10-19T15:13:58Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。