論文の概要: Machine learning-based cloud resource allocation algorithms: a comprehensive comparative review
- arxiv url: http://arxiv.org/abs/2511.11603v1
- Date: Fri, 31 Oct 2025 20:30:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-23 18:31:12.282554
- Title: Machine learning-based cloud resource allocation algorithms: a comprehensive comparative review
- Title(参考訳): 機械学習に基づくクラウドリソース割り当てアルゴリズムの総合的比較
- Authors: Deep Bodra, Sushil Khairnar,
- Abstract要約: クラウドリソースの割り当ては、現代のコンピューティング環境において大きな課題となっている。
従来のアプローチは、既存のクラウドインフラストラクチャの多目的最適化要求に対処するには不十分である。
本稿では,資源配分のための最先端人工知能と機械学習アルゴリズムの比較分析を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cloud resource allocation has emerged as a major challenge in modern computing environments, with organizations struggling to manage complex, dynamic workloads while optimizing performance and cost efficiency. Traditional heuristic approaches prove inadequate for handling the multi-objective optimization demands of existing cloud infrastructures. This paper presents a comparative analysis of state-of-the-art artificial intelligence and machine learning algorithms for resource allocation. We systematically evaluate 10 algorithms across four categories: Deep Reinforcement Learning approaches, Neural Network architectures, Traditional Machine Learning enhanced methods, and Multi-Agent systems. Analysis of published results demonstrates significant performance improvements across multiple metrics including makespan reduction, cost optimization, and energy efficiency gains compared to traditional methods. The findings reveal that hybrid architectures combining multiple artificial intelligence and machine learning techniques consistently outperform single-method approaches, with edge computing environments showing the highest deployment readiness. Our analysis provides critical insights for both academic researchers and industry practitioners seeking to implement next-generation cloud resource allocation strategies in increasingly complex and dynamic computing environments.
- Abstract(参考訳): クラウドリソースの割り当ては、パフォーマンスとコスト効率を最適化しながら、複雑な動的ワークロードの管理に苦労している組織によって、現代のコンピューティング環境において大きな課題として浮上しています。
従来のヒューリスティックアプローチは、既存のクラウドインフラストラクチャの多目的最適化要求に対処するには不十分である。
本稿では,資源配分のための最先端人工知能と機械学習アルゴリズムの比較分析を行う。
我々は,Deep Reinforcement Learningアプローチ,ニューラルネットワークアーキテクチャ,従来の機械学習強化手法,マルチエージェントシステムという,4つのカテゴリの10のアルゴリズムを体系的に評価した。
その結果, 従来の手法と比較して, コスト削減, コスト最適化, エネルギー効率向上など, 複数の指標で有意な性能向上が見られた。
この結果から、複数の人工知能と機械学習技術を組み合わせたハイブリッドアーキテクチャは、単一メソッドのアプローチを一貫して上回り、エッジコンピューティング環境は、最もデプロイの準備ができていることを示している。
我々の分析は、ますます複雑でダイナミックなコンピューティング環境において、次世代のクラウドリソース割り当て戦略を実装しようとしている学術研究者と業界実践者の両方に重要な洞察を与えます。
関連論文リスト
- MARS: Optimizing Dual-System Deep Research via Multi-Agent Reinforcement Learning [82.14973479594367]
複雑な推論タスクのための大規模言語モデル(LLM)は、直感的で意図的な認知プロセスを橋渡しする革新的なアプローチを必要とする。
本稿では,Multi-Agent System for Deep ReSearch (MARS)を提案する。
論文 参考訳(メタデータ) (2025-10-06T15:42:55Z) - Edge-Cloud Collaborative Computing on Distributed Intelligence and Model Optimization: A Survey [58.50944604905037]
エッジクラウドコラボレーティブコンピューティング(ECCC)は、現代のインテリジェントアプリケーションの計算要求に対処するための重要なパラダイムとして登場した。
AIの最近の進歩、特にディープラーニングと大規模言語モデル(LLM)は、これらの分散システムの能力を劇的に向上させてきた。
この調査は、基本的なアーキテクチャ、技術の実現、新しいアプリケーションに関する構造化されたチュートリアルを提供する。
論文 参考訳(メタデータ) (2025-05-03T13:55:38Z) - A Survey on Inference Optimization Techniques for Mixture of Experts Models [50.40325411764262]
大規模Mixture of Experts(MoE)モデルは、条件計算によるモデル容量と計算効率の向上を提供する。
これらのモデル上で推論をデプロイし実行することは、計算資源、レイテンシ、エネルギー効率において大きな課題を示す。
本調査では,システムスタック全体にわたるMoEモデルの最適化手法について分析する。
論文 参考訳(メタデータ) (2024-12-18T14:11:15Z) - Accelerated AI Inference via Dynamic Execution Methods [0.562479170374811]
本稿では,入力に基づいて計算フローを最適化する動的実行手法に着目する。
議論されている手法には、ディープネットワークからの早期離脱、言語モデルの投機的サンプリング、拡散モデルの適応的なステップが含まれる。
実験により、これらの動的アプローチは、品質を損なうことなく、レイテンシとスループットを大幅に改善できることが示された。
論文 参考訳(メタデータ) (2024-10-30T12:49:23Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Computation-efficient Deep Learning for Computer Vision: A Survey [121.84121397440337]
ディープラーニングモデルは、さまざまな視覚的知覚タスクにおいて、人間レベルのパフォーマンスに到達または超えた。
ディープラーニングモデルは通常、重要な計算資源を必要とし、現実のシナリオでは非現実的な電力消費、遅延、または二酸化炭素排出量につながる。
新しい研究の焦点は計算効率のよいディープラーニングであり、推論時の計算コストを最小限に抑えつつ、良好な性能を達成することを目指している。
論文 参考訳(メタデータ) (2023-08-27T03:55:28Z) - Resource-Efficient Deep Learning: A Survey on Model-, Arithmetic-, and
Implementation-Level Techniques [10.715525749057495]
ディープラーニングは、自動運転車、バーチャルアシスタント、ソーシャルネットワークサービス、ヘルスケアサービス、顔認識など、私たちの日常生活に広く浸透しています。
深層ニューラルネットワークは、トレーニングと推論の間にかなりの計算資源を必要とする。
本稿では、モデル、算術、実装レベルの技術の観点から、資源効率の高いディープラーニング技術について調査する。
論文 参考訳(メタデータ) (2021-12-30T17:00:06Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。