論文の概要: PECCO: A Profit and Cost-oriented Computation Offloading Scheme in
Edge-Cloud Environment with Improved Moth-flame Optimisation
- arxiv url: http://arxiv.org/abs/2208.05074v1
- Date: Tue, 9 Aug 2022 23:26:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-11 12:56:41.170134
- Title: PECCO: A Profit and Cost-oriented Computation Offloading Scheme in
Edge-Cloud Environment with Improved Moth-flame Optimisation
- Title(参考訳): PECCO: マウスフレム最適化を改善したエッジクラウド環境における利益とコスト指向の計算オフロードスキーム
- Authors: Jiashu Wu, Hao Dai, Yang Wang, Shigen Shen, Chengzhong Xu
- Abstract要約: エッジクラウド計算のオフロードは、クラウドセンタの負担を軽減するための、有望なソリューションである。
そこで本研究では,元のMoth-flame Optimiserの欠陥に対処する改良型Moth-flame optimiser PECCO-MFIを提案する。
- 参考スコア(独自算出の注目度): 22.673319784715172
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the fast growing quantity of data generated by smart devices and the
exponential surge of processing demand in the Internet of Things (IoT) era, the
resource-rich cloud centres have been utilised to tackle these challenges. To
relieve the burden on cloud centres, edge-cloud computation offloading becomes
a promising solution since shortening the proximity between the data source and
the computation by offloading computation tasks from the cloud to edge devices
can improve performance and Quality of Service (QoS). Several optimisation
models of edge-cloud computation offloading have been proposed that take
computation costs and heterogeneous communication costs into account. However,
several important factors are not jointly considered, such as heterogeneities
of tasks, load balancing among nodes and the profit yielded by computation
tasks, which lead to the profit and cost-oriented computation offloading
optimisation model PECCO proposed in this paper. Considering that the model is
hard in nature and the optimisation objective is not differentiable, we propose
an improved Moth-flame optimiser PECCO-MFI which addresses some deficiencies of
the original Moth-flame Optimiser and integrate it under the edge-cloud
environment. Comprehensive experiments are conducted to verify the superior
performance of the proposed method when optimising the proposed task offloading
model under the edge-cloud environment.
- Abstract(参考訳): スマートデバイスが生成するデータの急速な増加とIoT(Internet of Things)時代の処理需要の急増により、リソース豊富なクラウドセンタはこれらの課題に対処するために利用されてきた。
クラウドからエッジデバイスに計算タスクをオフロードすることで、データソースと計算の近接性が短縮され、パフォーマンスとサービス品質(qos)が向上するので、クラウドセンタの負担を軽減するために、エッジクラウド計算オフロードは有望なソリューションになる。
計算コストと異種通信コストを考慮したエッジクラウド計算オフロードの最適化モデルが提案されている。
しかし、タスクの不均一性、ノード間の負荷分散、計算タスクがもたらす利益など、いくつかの重要な要因が共同で考慮されていないため、本論文では、利益とコスト指向の計算オフロード最適化モデル PECCO が提案されている。
モデルが本質的には困難であり,最適化対象が微分可能でないことを考慮し,元のMoth-flame Optimiserの欠点に対処し,エッジクラウド環境下で統合する改良型Moth-flame optimiser PECCO-MFIを提案する。
エッジクラウド環境下でのタスクオフロードモデルの最適化において,提案手法の優れた性能を検証するための総合実験を行った。
関連論文リスト
- Cost-Sensitive Multi-Fidelity Bayesian Optimization with Transfer of Learning Curve Extrapolation [55.75188191403343]
各ユーザが事前に定義した機能であるユーティリティを導入し,BOのコストと性能のトレードオフについて述べる。
このアルゴリズムをLCデータセット上で検証した結果,従来のマルチファイルBOや転送BOベースラインよりも優れていた。
論文 参考訳(メタデータ) (2024-05-28T07:38:39Z) - dRG-MEC: Decentralized Reinforced Green Offloading for MEC-enabled Cloud
Network [0.7645708712865565]
本稿では,共同計算オフロードによる資源利用を最適化するために,総計算量と通信オーバーヘッドを最小化する手法を提案する。
ベースライン方式と比較して,本手法はシステム全体のコストを37.03%削減する。
論文 参考訳(メタデータ) (2024-01-10T17:21:20Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Sustainable AIGC Workload Scheduling of Geo-Distributed Data Centers: A
Multi-Agent Reinforcement Learning Approach [48.18355658448509]
生成的人工知能の最近の進歩は、機械学習トレーニングの需要が急増し、エネルギー消費の大幅な増加によるコスト負担と環境問題を引き起こしている。
地理的に分散したクラウドデータセンタ間でのトレーニングジョブのスケジューリングは、安価で低炭素エネルギーのコンピューティング能力の使用を最適化する機会を浮き彫りにする。
本研究では,実生活におけるワークロードパターン,エネルギー価格,炭素強度を組み込んだクラウドシステムと対話することで,マルチエージェント強化学習とアクタクリティカルな手法に基づく最適協調スケジューリング戦略の学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-17T02:12:30Z) - CILP: Co-simulation based Imitation Learner for Dynamic Resource
Provisioning in Cloud Computing Environments [13.864161788250856]
レイテンシクリティカルなタスクの主な課題は、積極的にプロビジョニングする将来のワークロード要求を予測することだ。
既存のAIベースのソリューションは、プロビジョニングのオーバーヘッド、異種VMコスト、クラウドシステムの品質(QoS)など、すべての重要な側面を公平に考慮しない傾向があります。
予測と最適化の2つのサブプロブレムとしてVMプロビジョニング問題を定式化するCILPと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-11T09:15:34Z) - Predict-and-Critic: Accelerated End-to-End Predictive Control for Cloud
Computing through Reinforcement Learning [8.573878018370547]
本稿では,予測によってパラメータ化されたソフト制約を持つMILPとして,産業用VMパッキング問題の近似定式化を導入する。
予測と最適化(PnO)を2段階の水平線で上回る予測と批判(PnC)フレームワークを提案する。
PnCは、最適化問題が現実の完全な表現ではない場合でも、PnCがPnOよりも決定品質を著しく向上することがわかった。
論文 参考訳(メタデータ) (2022-12-02T18:07:56Z) - MCDS: AI Augmented Workflow Scheduling in Mobile Edge Cloud Computing
Systems [12.215537834860699]
近年,エッジコンピューティングプラットフォームの低応答時間を利用してアプリケーション品質・オブ・サービス(QoS)を最適化するスケジューリング手法が提案されている。
本稿では,Deep Surrogate Models を用いたモンテカルロ学習を用いて,モバイルエッジクラウドコンピューティングシステムにおけるワークフローアプリケーションを効率的にスケジューリングする手法を提案する。
論文 参考訳(メタデータ) (2021-12-14T10:00:01Z) - Learning-based decentralized offloading decision making in an
adversarial environment [1.9978675755638664]
Vehicular fog Computing (VFC) は、クラウドコンピューティング機能をインターネットの端にある分散フォグノードにプッシュする。
本稿では,対戦型マルチアームバンディット理論に基づく,バンドリットフィードバックを用いた新しい逆オンラインアルゴリズムを開発する。
理論的には、入力サイズ依存選択規則は、準最適動作を探索することなく、適切な霧ノードを選択することができる。
論文 参考訳(メタデータ) (2021-04-26T19:04:55Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - A Privacy-Preserving-Oriented DNN Pruning and Mobile Acceleration
Framework [56.57225686288006]
モバイルエッジデバイスの限られたストレージとコンピューティング能力を満たすために、ディープニューラルネットワーク(DNN)の軽量プルーニングが提案されている。
従来のプルーニング手法は主に、ユーザデータのプライバシを考慮せずに、モデルのサイズを減らしたり、パフォーマンスを向上させることに重点を置いていた。
プライベートトレーニングデータセットを必要としないプライバシ保護指向のプルーニングおよびモバイルアクセラレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-13T23:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。