論文の概要: Intelligent Resource Allocation Optimization for Cloud Computing via Machine Learning
- arxiv url: http://arxiv.org/abs/2504.03682v1
- Date: Fri, 21 Mar 2025 23:06:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-13 06:53:01.730645
- Title: Intelligent Resource Allocation Optimization for Cloud Computing via Machine Learning
- Title(参考訳): 機械学習によるクラウドコンピューティングのためのインテリジェントリソース割り当て最適化
- Authors: Yuqing Wang, Xiao Yang,
- Abstract要約: 本稿では,需要予測および強化学習(DQN)に深層学習(LSTM)を活用する知的資源割当アルゴリズムを提案する。
提案システムは,資源利用率を32.5%向上し,平均応答時間を43.3%削減し,運用コストを26.6%削減する。
- 参考スコア(独自算出の注目度): 11.657154571216234
- License:
- Abstract: With the rapid expansion of cloud computing applications, optimizing resource allocation has become crucial for improving system performance and cost efficiency. This paper proposes an intelligent resource allocation algorithm that leverages deep learning (LSTM) for demand prediction and reinforcement learning (DQN) for dynamic scheduling. By accurately forecasting computing resource demands and enabling real-time adjustments, the proposed system enhances resource utilization by 32.5%, reduces average response time by 43.3%, and lowers operational costs by 26.6%. Experimental results in a production cloud environment confirm that the method significantly improves efficiency while maintaining high service quality. This study provides a scalable and effective solution for intelligent cloud resource management, offering valuable insights for future cloud optimization strategies.
- Abstract(参考訳): クラウドコンピューティングアプリケーションの急速な拡張により、システム性能とコスト効率を改善するために、リソース割り当ての最適化が重要になっている。
本稿では,需要予測および強化学習(DQN)に深層学習(LSTM)を活用する知的資源割当アルゴリズムを提案する。
計算資源の需要を正確に予測し、リアルタイム調整を可能にすることにより、資源利用率を32.5%向上させ、平均応答時間を43.3%削減し、運用コストを26.6%削減する。
実運用クラウド環境における実験結果から,高いサービス品質を維持しながら効率を著しく向上させることを確認した。
この研究は、インテリジェントなクラウドリソース管理のためのスケーラブルで効果的なソリューションを提供し、将来のクラウド最適化戦略に貴重な洞察を提供する。
関連論文リスト
- Secure Resource Allocation via Constrained Deep Reinforcement Learning [49.15061461220109]
リソース割り当て、タスクオフロード、セキュリティ、パフォーマンスのバランスをとるフレームワークであるSARMTOを紹介します。
SARMTOは5つのベースラインアプローチを一貫して上回り、最大40%のシステムコスト削減を実現している。
これらの拡張は、複雑な分散コンピューティング環境におけるリソース管理に革命をもたらすSARMTOの可能性を強調している。
論文 参考訳(メタデータ) (2025-01-20T15:52:43Z) - Deep Reinforcement Learning for Job Scheduling and Resource Management in Cloud Computing: An Algorithm-Level Review [10.015735252600793]
深層強化学習(Dep Reinforcement Learning, DRL)は、これらの課題に対する有望な解決策として登場した。
DRLにより、システムは環境の継続的な観察に基づいてポリシーを学習し、適応することができる。
この調査は、クラウドコンピューティングにおけるジョブスケジューリングとリソース管理のためのDRLベースのアルゴリズムの包括的なレビューを提供する。
論文 参考訳(メタデータ) (2025-01-02T02:08:00Z) - Dynamic Scheduling Strategies for Resource Optimization in Computing Environments [0.29008108937701327]
本稿では,資源利用,負荷分散,タスク完了効率といった重要な性能指標のバランスをとることを目的とした,多目的最適化に基づくコンテナスケジューリング手法を提案する。
実験の結果, 従来の静的ルールアルゴリズムや効率アルゴリズムと比較して, 資源利用, 負荷分散, バーストタスク完了において, 最適化されたスケジューリング方式が有益であることが示唆された。
論文 参考訳(メタデータ) (2024-12-23T05:43:17Z) - AI-Driven Resource Allocation Framework for Microservices in Hybrid Cloud Platforms [1.03590082373586]
本稿では,ハイブリッドクラウドプラットフォームにおけるリソース割り当てのためのAI駆動型フレームワークを提案する。
このフレームワークは、コスト削減と性能向上のために強化学習(RL)ベースのリソース利用最適化を採用している。
論文 参考訳(メタデータ) (2024-12-03T17:41:08Z) - TranDRL: A Transformer-Driven Deep Reinforcement Learning Enabled Prescriptive Maintenance Framework [58.474610046294856]
産業システムは、運用効率を高め、ダウンタイムを減らすための信頼性の高い予測保守戦略を要求する。
本稿では,Transformerモデルに基づくニューラルネットワークと深部強化学習(DRL)アルゴリズムの機能を活用し,システムの保守動作を最適化する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T02:27:54Z) - A Cost-Aware Mechanism for Optimized Resource Provisioning in Cloud
Computing [6.369406986434764]
我々は,要求のコスト削減を保証する新しい学習ベースの資源供給手法を提案してきた。
我々の手法は要求のほとんどを効率的に適応させ、さらに結果のパフォーマンスは設計目標に合致する。
論文 参考訳(メタデータ) (2023-09-20T13:27:30Z) - Sustainable AIGC Workload Scheduling of Geo-Distributed Data Centers: A
Multi-Agent Reinforcement Learning Approach [48.18355658448509]
生成的人工知能の最近の進歩は、機械学習トレーニングの需要が急増し、エネルギー消費の大幅な増加によるコスト負担と環境問題を引き起こしている。
地理的に分散したクラウドデータセンタ間でのトレーニングジョブのスケジューリングは、安価で低炭素エネルギーのコンピューティング能力の使用を最適化する機会を浮き彫りにする。
本研究では,実生活におけるワークロードパターン,エネルギー価格,炭素強度を組み込んだクラウドシステムと対話することで,マルチエージェント強化学習とアクタクリティカルな手法に基づく最適協調スケジューリング戦略の学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-17T02:12:30Z) - Actively Learning Costly Reward Functions for Reinforcement Learning [56.34005280792013]
複雑な実世界の環境でエージェントを訓練することは、桁違いに高速であることを示す。
強化学習の手法を新しい領域に適用することにより、興味深く非自明な解を見つけることができることを示す。
論文 参考訳(メタデータ) (2022-11-23T19:17:20Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Deep Reinforcement Learning Based Multidimensional Resource Management
for Energy Harvesting Cognitive NOMA Communications [64.1076645382049]
エネルギー収穫(EH)、認知無線(CR)、非直交多重アクセス(NOMA)の組み合わせはエネルギー効率を向上させるための有望な解決策である。
本稿では,決定論的CR-NOMA IoTシステムにおけるスペクトル,エネルギー,時間資源管理について検討する。
論文 参考訳(メタデータ) (2021-09-17T08:55:48Z) - ANDREAS: Artificial intelligence traiNing scheDuler foR accElerAted
resource clusterS [1.798617052102518]
パフォーマンスを最大化し、データセンターの運用コストを最小限に抑える高度なスケジューリングソリューションであるANDREASを提案します。
実験の結果,第一原理法では平均で30~62%のコスト削減が可能であった。
論文 参考訳(メタデータ) (2021-05-11T14:36:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。