論文の概要: Multi-Time Scale Service Caching and Pricing in MEC Systems with Dynamic Program Popularity
- arxiv url: http://arxiv.org/abs/2407.03804v1
- Date: Thu, 4 Jul 2024 10:23:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-08 18:32:28.312865
- Title: Multi-Time Scale Service Caching and Pricing in MEC Systems with Dynamic Program Popularity
- Title(参考訳): 動的プログラム人気を有するMECシステムにおけるマルチタイムサービスキャッシングと価格設定
- Authors: Yiming Chen, Xingyuan Hu, Bo Gu, Shimin Gong, Zhou Su,
- Abstract要約: モバイルエッジコンピューティングシステムでは、ベースステーション(BS)は、タスク実行時間を短縮するためにコンピューティングサービスを提供する。
BSは自身の利益を最大化するためにユーザ需要に基づいてサービスプログラムを価格設定し、ユーザは価格に基づいてオフロード戦略を決定してコストを最小化する。
サービスキャッシング,価格設定,タスクオフロードを共同で最適化する,2段階のスケールフレームワークを提案する。
- 参考スコア(独自算出の注目度): 20.108014787877025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In mobile edge computing systems, base stations (BSs) equipped with edge servers can provide computing services to users to reduce their task execution time. However, there is always a conflict of interest between the BS and users. The BS prices the service programs based on user demand to maximize its own profit, while the users determine their offloading strategies based on the prices to minimize their costs. Moreover, service programs need to be pre-cached to meet immediate computing needs. Due to the limited caching capacity and variations in service program popularity, the BS must dynamically select which service programs to cache. Since service caching and pricing have different needs for adjustment time granularities, we propose a two-time scale framework to jointly optimize service caching, pricing and task offloading. For the large time scale, we propose a game-nested deep reinforcement learning algorithm to dynamically adjust service caching according to the estimated popularity information. For the small time scale, by modeling the interaction between the BS and users as a two-stage game, we prove the existence of the equilibrium under incomplete information and then derive the optimal pricing and offloading strategies. Extensive simulations based on a real-world dataset demonstrate the efficiency of the proposed approach.
- Abstract(参考訳): モバイルエッジコンピューティングシステムでは、エッジサーバを備えたベースステーション(BS)が、タスク実行時間を短縮するためにコンピューティングサービスを提供する。
しかし、常にBSとユーザーの間で利害の対立がある。
BSは自身の利益を最大化するためにユーザ需要に基づいてサービスプログラムを価格設定し、ユーザは価格に基づいてオフロード戦略を決定してコストを最小化する。
さらに、即時コンピューティングのニーズを満たすためには、サービスプログラムを事前キャッシュする必要がある。
キャッシュ容量の制限とサービスプログラムの人気の変化のため、BSはどのサービスプログラムをキャッシュするかを動的に選択する必要がある。
サービスキャッシングと価格設定は時間粒度の調整を必要とするため、サービスキャッシング、価格設定、タスクオフロードを協調的に最適化する2時間スケールのフレームワークを提案する。
大規模化のために,推定人気情報に応じてサービスキャッシュを動的に調整するゲームネスト深層強化学習アルゴリズムを提案する。
小規模な時間スケールでは、BSとユーザ間の相互作用を2段階ゲームとしてモデル化することにより、不完全な情報の下での平衡の存在を証明し、最適な価格設定とオフロード戦略を導出する。
実世界のデータセットに基づく大規模なシミュレーションは、提案手法の効率を実証する。
関連論文リスト
- Leveraging Microservices Architecture for Dynamic Pricing in the Travel Industry: Algorithms, Scalability, and Impact on Revenue and Customer Satisfaction [1.03590082373586]
本研究では,旅行分野を対象としたリアルタイム動的価格体系の実装について検討する。
このシステムは、需要、競合価格、その他の外部状況などの要因をリアルタイムに解決するように設計されている。
コントロールされたシミュレーションと実生活のアプリケーションの両方で、収益生成が22%、価格応答時間が17%改善した。
論文 参考訳(メタデータ) (2024-11-03T17:24:02Z) - SCALM: Towards Semantic Caching for Automated Chat Services with Large Language Models [15.742472622602557]
セマンティック分析を重視し,重要なキャッシュエントリやパターンを識別する新しいキャッシュアーキテクチャであるSCALMを提案する。
評価の結果,SCALMはキャッシュヒット率を増大させ,LLMChatサービスの運用コストを低減させることがわかった。
論文 参考訳(メタデータ) (2024-05-24T08:16:22Z) - SpotServe: Serving Generative Large Language Models on Preemptible
Instances [64.18638174004151]
SpotServeは、プリエンプティブルインスタンスにシステムを提供する最初の分散大規模言語モデルである。
SpotServeは、既存のLLMサービスシステムと比較して、P99テールのレイテンシを2.4~9.1倍削減できることを示す。
また、SpotServeはプリエンプティブインスタンスの価格優位性を利用して、オンデマンドインスタンスのみを使用する場合と比較して54%の金銭的コストを節約できることも示しています。
論文 参考訳(メタデータ) (2023-11-27T06:31:17Z) - Accelerating Deep Learning Classification with Error-controlled
Approximate-key Caching [72.50506500576746]
我々は、近似キーキャッシングと名付けた新しいキャッシングパラダイムを提案する。
近似キャッシュはDL推論の負荷を軽減し、システムのスループットを向上するが、近似誤差を導入する。
我々は古典的なLRUと理想的なキャッシュのキャッシュシステム性能を解析的にモデル化し、期待される性能のトレース駆動評価を行い、提案手法の利点を最先端の類似キャッシュと比較した。
論文 参考訳(メタデータ) (2021-12-13T13:49:11Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z) - Learning from Images: Proactive Caching with Parallel Convolutional
Neural Networks [94.85780721466816]
本稿では,プロアクティブキャッシングのための新しいフレームワークを提案する。
モデルベースの最適化とデータ駆動技術を組み合わせて、最適化問題をグレースケールのイメージに変換する。
数値計算の結果,提案手法は71.6%の計算時間を0.8%のコストで削減できることがわかった。
論文 参考訳(メタデータ) (2021-08-15T21:32:47Z) - Learning Augmented Index Policy for Optimal Service Placement at the
Network Edge [8.136957953239254]
私たちは、意思決定者がエッジでホストする$ N$サービスのいずれかを選択する必要があるネットワークエッジでサービス配置の問題を検討します。
私たちの目標は、顧客の平均サービス配信遅延を最小限に抑える適応アルゴリズムを設計することです。
論文 参考訳(メタデータ) (2021-01-10T23:54:59Z) - A Predictive Autoscaler for Elastic Batch Jobs [8.354712625979776]
Deep Learning、HPC、Sparkといった大規模なバッチジョブは、従来のオンラインサービスよりもはるかに多くの計算リソースとコストを必要とします。
顧客とオーバプロビジョンインスタンスに対して,柔軟なインターフェースを提供するための予測オートスケーラを提案する。
論文 参考訳(メタデータ) (2020-10-10T17:35:55Z) - An online learning approach to dynamic pricing and capacity sizing in
service systems [26.720986177499338]
本稿では,$GI/GI/1$キューにおいて,動的価格とキャパシティサイズの問題について検討する。
私たちのフレームワークは、GOLiQ(Gradient-based Online Learning in Queue)と呼ばれています。
論文 参考訳(メタデータ) (2020-09-07T07:17:20Z) - Multi-Armed Bandit Based Client Scheduling for Federated Learning [91.91224642616882]
統合学習(FL)は、通信オーバーヘッドの低減やデータのプライバシの保護など、ユビキタスな特性を特徴とする。
FLの各通信ラウンドでは、クライアントは自身のデータに基づいてローカルモデルを更新し、無線チャネル経由でローカル更新をアップロードする。
本研究は、無線チャネルの状態情報やクライアントの統計的特性を知ることなく、FLにおけるオンラインクライアントスケジューリング(CS)のためのマルチアームバンディットベースのフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-05T12:32:32Z) - Federated Learning for Task and Resource Allocation in Wireless High
Altitude Balloon Networks [160.96150373385768]
移動エッジコンピューティング(MEC)対応バルーンネットワークにおいて,タスク計算と伝送におけるエネルギーと時間消費の最小化の問題について検討した。
サポートベクトルマシン(SVM)に基づくフェデレーション学習(FL)アルゴリズムを提案する。
提案したSVMベースのFL法では,各HABが協調してSVMモデルを構築し,すべてのユーザアソシエーションを決定できる。
論文 参考訳(メタデータ) (2020-03-19T14:18:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。