論文の概要: Online Task Scheduling for Fog Computing with Multi-Resource Fairness
- arxiv url: http://arxiv.org/abs/2008.00207v1
- Date: Sat, 1 Aug 2020 07:57:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 00:54:11.793475
- Title: Online Task Scheduling for Fog Computing with Multi-Resource Fairness
- Title(参考訳): マルチリソースフェアネスを用いたフォグコンピューティングのためのオンラインタスクスケジューリング
- Authors: Simeng Bian, Xi Huang, Ziyu Shao
- Abstract要約: フォグコンピューティングシステムでは、オンラインタスクスケジューリング(すなわち、エンドデバイスから連続的に生成されるタスクのリソース割り当てを決定する)が重要な課題である。
オンラインタスクスケジューリング方式であるFairTSを提案する。
シミュレーションの結果、FairTSはタスクの遅くなり、リソースの公平性が向上し、最先端のスキームよりも優れていた。
- 参考スコア(独自算出の注目度): 9.959176097194675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In fog computing systems, one key challenge is online task scheduling, i.e.,
to decide the resource allocation for tasks that are continuously generated
from end devices. The design is challenging because of various uncertainties
manifested in fog computing systems; e.g., tasks' resource demands remain
unknown before their actual arrivals. Recent works have applied deep
reinforcement learning (DRL) techniques to conduct online task scheduling and
improve various objectives. However, they overlook the multi-resource fairness
for different tasks, which is key to achieving fair resource sharing among
tasks but in general non-trivial to achieve. Thusly, it is still an open
problem to design an online task scheduling scheme with multi-resource
fairness. In this paper, we address the above challenges. Particularly, by
leveraging DRL techniques and adopting the idea of dominant resource fairness
(DRF), we propose FairTS, an online task scheduling scheme that learns directly
from experience to effectively shorten average task slowdown while ensuring
multi-resource fairness among tasks. Simulation results show that FairTS
outperforms state-of-the-art schemes with an ultra-low task slowdown and better
resource fairness.
- Abstract(参考訳): フォグコンピューティングシステムでは、オンラインタスクスケジューリング、すなわち、エンドデバイスから連続的に生成されるタスクのリソース割り当てを決定することが重要な課題である。
この設計は、フォグコンピューティングシステムに現れる様々な不確実性のために困難であり、例えば、実際の到着前にタスクのリソース要求が不明である。
最近の研究は、オンラインタスクスケジューリングと様々な目的の改善のために、深層強化学習(DRL)技術を適用している。
しかし、異なるタスクに対するマルチリソースの公平性を見落としており、これはタスク間で公平なリソース共有を実現するための鍵となるが、一般的には自明ではない。
このように、マルチリソースフェアネスを備えたオンラインタスクスケジューリングスキームを設計することは、依然としてオープンな問題である。
本稿では,上記の課題に対処する。
特に,drl技術を活用して支配的資源公平性(drf)という考え方を採用することで,経験から直接学習し,タスク間の公平性を確保しつつ平均的なタスクスローダウンを効果的に短縮するオンラインタスクスケジューリングスキームであるfairtsを提案する。
シミュレーションの結果、FairTSはタスクの遅くなり、リソースの公平性が向上し、最先端のスキームよりも優れていた。
関連論文リスト
- Skills Regularized Task Decomposition for Multi-task Offline Reinforcement Learning [11.790581500542439]
多様なオフラインデータセットを持つ強化学習(RL)は、複数のタスクの関係を活用する利点がある。
異なる品質の行動ポリシーによって生成される異種データセットに対して,スキルベースのマルチタスクRL手法を提案する。
我々のマルチタスクオフラインRLアプローチは、異なる品質データセットの混合構成に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-28T07:36:20Z) - Resource Allocation and Workload Scheduling for Large-Scale Distributed Deep Learning: A Survey [48.06362354403557]
本調査は,大規模分散DLの効率的な資源配分とワークロードスケジューリング戦略について,主に2019年から2024年までの文献を概説する。
トピックごとに重要な課題を強調し、既存の技術に関する重要な洞察について議論する。
この調査は、コンピュータ科学、人工知能、通信研究者が最近の進歩を理解することを奨励することを目的としている。
論文 参考訳(メタデータ) (2024-06-12T11:51:44Z) - Learning to Schedule Online Tasks with Bandit Feedback [7.671139712158846]
オンラインタスクスケジューリングは、クラウドコンピューティングやクラウドソーシングにおけるタスク集約型アプリケーションにおいて重要な役割を果たす。
本稿では,二重最適化学習に基づくRobins-Monro(DOL-RM)アルゴリズムを提案する。
DOL-RMは、報酬対コスト比の楽観的な推定と決定モジュールを組み込んだ学習モジュールを統合する。
論文 参考訳(メタデータ) (2024-02-26T10:11:28Z) - RHFedMTL: Resource-Aware Hierarchical Federated Multi-Task Learning [11.329273673732217]
フェデレーション学習は、セキュリティを備えた大規模な分散ノード上でAIを可能にする効果的な方法である。
複数の基地局(BS)と端末をまたいだマルチタスク学習を維持しながら、プライバシを確保することは困難である。
本稿では, セルラーワークの自然雲-BS-末端階層に着想を得て, 資源を考慮した階層型MTL (RHFedMTL) ソリューションを提案する。
論文 参考訳(メタデータ) (2023-06-01T13:49:55Z) - Diffusion Model is an Effective Planner and Data Synthesizer for
Multi-Task Reinforcement Learning [101.66860222415512]
Multi-Task Diffusion Model (textscMTDiff) は、トランスフォーマーのバックボーンを組み込んだ拡散に基づく手法であり、生成計画とデータ合成のための素早い学習を行う。
生成計画において、textscMTDiffはMeta-World上の50のタスクとMaze2D上の8のマップで最先端のアルゴリズムより優れています。
論文 参考訳(メタデータ) (2023-05-29T05:20:38Z) - Reinforcement Learning with Success Induced Task Prioritization [68.8204255655161]
本稿では,自動カリキュラム学習のためのフレームワークであるSuccess induced Task Prioritization (SITP)を紹介する。
アルゴリズムはエージェントに最速の学習を提供するタスクの順序を選択する。
我々は,SITPが他のカリキュラム設計手法と一致するか,あるいは上回っていることを実証する。
論文 参考訳(メタデータ) (2022-12-30T12:32:43Z) - Understanding the Complexity Gains of Single-Task RL with a Curriculum [83.46923851724408]
強化学習 (Reinforcement Learning, RL) の問題は, 十分に形が整った報酬なしでは困難である。
カリキュラムで定義されるマルチタスクRL問題として、シングルタスクRL問題を再構成する理論的枠組みを提供する。
マルチタスクRL問題における各タスクの逐次解法は、元の単一タスク問題の解法よりも計算効率がよいことを示す。
論文 参考訳(メタデータ) (2022-12-24T19:46:47Z) - Active Multi-Task Representation Learning [50.13453053304159]
本研究は,アクティブラーニングの手法を活用することで,資源タスクのサンプリングに関する最初の公式な研究を行う。
提案手法は, 対象タスクに対する各ソースタスクの関連性を反復的に推定し, その関連性に基づいて各ソースタスクからサンプルを抽出するアルゴリズムである。
論文 参考訳(メタデータ) (2022-02-02T08:23:24Z) - An Evolutionary Algorithm for Task Scheduling in Crowdsourced Software
Development [10.373891804761376]
本稿では,クラウドソーシングソフトウェア開発のための進化的アルゴリズムに基づくタスクスケジューリング手法を提案する。
4つのプロジェクトの実験結果から,提案手法はプロジェクト期間を33~78%短縮できる可能性が示された。
論文 参考訳(メタデータ) (2021-07-05T18:07:26Z) - Smart Scheduling based on Deep Reinforcement Learning for Cellular
Networks [18.04856086228028]
深部強化学習(DRL)に基づくスマートスケジューリング手法を提案する。
実装フレンドリーな設計、すなわちエージェントのためのスケーラブルなニューラルネットワーク設計と仮想環境トレーニングフレームワークを提供する。
本研究では, DRLベースのスマートスケジューリングが従来のスケジューリング方式を上回り, 実用システムにも適用できることを示した。
論文 参考訳(メタデータ) (2021-03-22T02:09:16Z) - Gradient Surgery for Multi-Task Learning [119.675492088251]
マルチタスク学習は、複数のタスク間で構造を共有するための有望なアプローチとして登場した。
マルチタスク学習がシングルタスク学習と比較して難しい理由は、完全には理解されていない。
本稿では,他の作業の勾配の正規平面上にタスクの勾配を投影する勾配手術の一形態を提案する。
論文 参考訳(メタデータ) (2020-01-19T06:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。