論文の概要: Dynamic Operating System Scheduling Using Double DQN: A Reinforcement Learning Approach to Task Optimization
- arxiv url: http://arxiv.org/abs/2503.23659v1
- Date: Mon, 31 Mar 2025 01:48:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:34:15.176792
- Title: Dynamic Operating System Scheduling Using Double DQN: A Reinforcement Learning Approach to Task Optimization
- Title(参考訳): ダブルDQNを用いた動的オペレーティングシステムスケジューリング:タスク最適化のための強化学習アプローチ
- Authors: Xiaoxuan Sun, Yifei Duan, Yingnan Deng, Fan Guo, Guohui Cai, Yuting Peng,
- Abstract要約: 実験の結果,Double DQNアルゴリズムは軽負荷,中負荷,重負荷シナリオ下でのスケジューリング性能が高いことがわかった。
このアルゴリズムはまた、資源利用における高い最適化能力を示し、システム状態に応じてリソース割り当てをインテリジェントに調整することができる。
今後の研究では、より複雑なシステム、特にクラウドコンピューティングや大規模分散環境におけるアルゴリズムの適用について検討する予定である。
- 参考スコア(独自算出の注目度): 2.2045629562818085
- License:
- Abstract: In this paper, an operating system scheduling algorithm based on Double DQN (Double Deep Q network) is proposed, and its performance under different task types and system loads is verified by experiments. Compared with the traditional scheduling algorithm, the algorithm based on Double DQN can dynamically adjust the task priority and resource allocation strategy, thus improving the task completion efficiency, system throughput, and response speed. The experimental results show that the Double DQN algorithm has high scheduling performance under light load, medium load and heavy load scenarios, especially when dealing with I/O intensive tasks, and can effectively reduce task completion time and system response time. In addition, the algorithm also shows high optimization ability in resource utilization and can intelligently adjust resource allocation according to the system state, avoiding resource waste and excessive load. Future studies will further explore the application of the algorithm in more complex systems, especially scheduling optimization in cloud computing and large-scale distributed environments, combining factors such as network latency and energy efficiency to improve the overall performance and adaptability of the algorithm.
- Abstract(参考訳): 本稿では,Double DQN(Double Deep Q Network)に基づくOSスケジューリングアルゴリズムを提案し,その性能を異なるタスクタイプとシステム負荷下で検証する。
従来のスケジューリングアルゴリズムと比較して、Double DQNに基づくアルゴリズムはタスク優先度とリソース割り当て戦略を動的に調整し、タスク完了効率、システムスループット、レスポンス速度を改善する。
実験結果から,Double DQNアルゴリズムは,特にI/O集約タスクの処理において,軽負荷,中負荷,重負荷シナリオ下でのスケジューリング性能が高く,タスク完了時間とシステム応答時間を効果的に削減できることがわかった。
さらに, このアルゴリズムは資源利用の最適化能力も高く, 資源の無駄や過負荷を回避し, システム状態に応じて資源割り当てをインテリジェントに調整することができる。
今後の研究は、より複雑なシステム、特にクラウドコンピューティングと大規模分散環境におけるスケジューリング最適化におけるアルゴリズムの適用をさらに検討し、ネットワーク遅延やエネルギー効率などの要素を組み合わせて、アルゴリズムの全体的な性能と適応性を改善する。
関連論文リスト
- Dynamic Scheduling Strategies for Resource Optimization in Computing Environments [0.29008108937701327]
本稿では,資源利用,負荷分散,タスク完了効率といった重要な性能指標のバランスをとることを目的とした,多目的最適化に基づくコンテナスケジューリング手法を提案する。
実験の結果, 従来の静的ルールアルゴリズムや効率アルゴリズムと比較して, 資源利用, 負荷分散, バーストタスク完了において, 最適化されたスケジューリング方式が有益であることが示唆された。
論文 参考訳(メタデータ) (2024-12-23T05:43:17Z) - Reinforcement Learning for Adaptive Resource Scheduling in Complex System Environments [8.315191578007857]
そこで本研究では,Q-ラーニングに基づく新しいコンピュータシステムの性能最適化と適応型ワークロード管理スケジューリングアルゴリズムを提案する。
対照的に、強化学習アルゴリズムであるQラーニングは、システムの状態変化から継続的に学習し、動的スケジューリングとリソース最適化を可能にする。
この研究は、将来の大規模システムにおけるAI駆動適応スケジューリングの統合の基礎を提供し、システムのパフォーマンスを高め、運用コストを削減し、持続可能なエネルギー消費をサポートするスケーラブルでインテリジェントなソリューションを提供する。
論文 参考訳(メタデータ) (2024-11-08T05:58:09Z) - DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - A Heuristically Assisted Deep Reinforcement Learning Approach for
Network Slice Placement [0.7885276250519428]
本稿では,Deep Reinforcement Learning(DRL)に基づくハイブリッド配置ソリューションと,Power of Two Choices原則に基づく専用最適化を提案する。
提案したHuristically-Assisted DRL (HA-DRL) は,他の最先端手法と比較して学習プロセスの高速化と資源利用の促進を可能にする。
論文 参考訳(メタデータ) (2021-05-14T10:04:17Z) - A Two-stage Framework and Reinforcement Learning-based Optimization
Algorithms for Complex Scheduling Problems [54.61091936472494]
本稿では、強化学習(RL)と従来の運用研究(OR)アルゴリズムを組み合わせた2段階のフレームワークを開発する。
スケジューリング問題は,有限マルコフ決定過程 (MDP) と混合整数計画過程 (mixed-integer programming process) の2段階で解決される。
その結果,本アルゴリズムは,アジャイルな地球観測衛星スケジューリング問題に対して,安定かつ効率的に十分なスケジューリング計画を得ることができた。
論文 参考訳(メタデータ) (2021-03-10T03:16:12Z) - Geometric Deep Reinforcement Learning for Dynamic DAG Scheduling [8.14784681248878]
本稿では,現実的なスケジューリング問題を解決するための強化学習手法を提案する。
高性能コンピューティングコミュニティにおいて一般的に実行されるアルゴリズムであるColesky Factorizationに適用する。
我々のアルゴリズムは,アクター・クリティカル・アルゴリズム (A2C) と組み合わせてグラフニューラルネットワークを用いて,問題の適応表現をオンザフライで構築する。
論文 参考訳(メタデータ) (2020-11-09T10:57:21Z) - Resource Allocation via Model-Free Deep Learning in Free Space Optical
Communications [119.81868223344173]
本稿では,自由空間光学(FSO)通信におけるチャネルフェージング効果の緩和のための資源配分の一般的な問題について検討する。
本フレームワークでは,FSO資源割り当て問題を解決する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-27T17:38:51Z) - A Machine Learning Approach for Task and Resource Allocation in Mobile
Edge Computing Based Networks [108.57859531628264]
無線ネットワークにおいて,共同作業,スペクトル,送信電力配分問題について検討する。
提案アルゴリズムは、標準Q-ラーニングアルゴリズムと比較して、収束に必要なイテレーション数と全ユーザの最大遅延を最大18%、11.1%削減することができる。
論文 参考訳(メタデータ) (2020-07-20T13:46:42Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - DeepSoCS: A Neural Scheduler for Heterogeneous System-on-Chip (SoC)
Resource Scheduling [0.0]
システム・オン・チップ(SoC)システムのための新しいスケジューリングソリューションを提案する。
我々のDeep Reinforcement Learning (DRL)ベースのスケジューリング(DeepSoCS)はルールベースのスケジューラの脆さを克服する。
論文 参考訳(メタデータ) (2020-05-15T17:31:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。