論文の概要: On Queueing Theory for Large-Scale CI/CD Pipelines Optimization
- arxiv url: http://arxiv.org/abs/2504.18705v1
- Date: Fri, 25 Apr 2025 21:34:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.955551
- Title: On Queueing Theory for Large-Scale CI/CD Pipelines Optimization
- Title(参考訳): 大規模CI/CDパイプライン最適化のための待ち行列理論について
- Authors: Grégory Bournassenko,
- Abstract要約: 継続的インテグレーションと継続的デプロイメント(CI/CD)パイプラインは、現代のソフトウェア開発の中心です。
本稿では,大規模CI/CDを最適化するための待ち行列理論に基づくモデリングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Continuous Integration and Continuous Deployment (CI/CD) pipelines are central to modern software development. In large organizations, the high volume of builds and tests creates bottlenecks, especially under shared infrastructure. This article proposes a modeling framework based on queueing theory to optimize large-scale CI/CD workflows. We formalize the system using classical $M/M/c$ queueing models and discuss strategies to minimize delays and infrastructure costs. Our approach integrates theoretical results with practical techniques, including dynamic scaling and prioritization of CI/CD tasks.
- Abstract(参考訳): 継続的インテグレーションと継続的デプロイメント(CI/CD)パイプラインは、現代のソフトウェア開発の中心です。
大きな組織では、大量のビルドとテストがボトルネックを生み出します。
本稿では,大規模CI/CDワークフローを最適化するための待ち行列理論に基づくモデリングフレームワークを提案する。
古典的な$M/M/c$キューモデルを用いてシステムを形式化し、遅延やインフラコストを最小限に抑えるための戦略について議論する。
提案手法は,CI/CDタスクの動的スケーリングや優先順位付けなど,理論的結果と実践的テクニックを統合する。
関連論文リスト
- Understanding and Optimizing Multi-Stage AI Inference Pipelines [11.254219071373319]
HERMESは不均一な多段LPM推論実行シミュレータである。
HERMESは、以前のフレームワークとは異なり、複数のモデルを同時に実行する異種クライアントをサポートする。
我々は、推論ステージがエンドツーエンドのレイテンシ、ハイブリッドパイプラインの最適戦略、リモートKVキャッシュ検索のアーキテクチャ的影響について検討する。
論文 参考訳(メタデータ) (2025-04-14T00:29:49Z) - ParallelFlow: Parallelizing Linear Transformers via Flow Discretization [4.272515397452792]
行列値状態空間モデル(SSM)を用いた線形注意モデル解析のための理論的枠組みを提案する。
我々のアプローチであるParallel Flowsは、時間的ダイナミクスを実装制約から体系的に分離する視点を提供します。
具体的応用として、最近の理論的進歩によって動機付けられた一般化された低ランク設定でDeltaNetを解析する。
論文 参考訳(メタデータ) (2025-04-01T07:34:07Z) - Adaptive Orchestration for Inference of Large Foundation Models at the Edge [46.1232919707345]
Large Foundation Models (LFMs)は、次世代のEdge AIアプリケーションの新機能をアンロックすることを約束する。
リソース制約のあるヘテロジニアスエッジ環境におけるLFMによる推論は、ワークロードオーケストレーションにおいて大きな課題となる。
本稿では,分散推論処理の管理に特化して設計された,新しい適応型オーケストレーション手法とシステムを提案する。
論文 参考訳(メタデータ) (2025-03-19T15:35:56Z) - Will Pre-Training Ever End? A First Step Toward Next-Generation Foundation MLLMs via Self-Improving Systematic Cognition [86.21199607040147]
自己改善認知(Self-Improving cognition、SIcog)は、次世代基礎言語モデルを構築するための自己学習フレームワークである。
ステップバイステップの視覚的理解手法であるChain-of-Descriptionを導入し、構造化連鎖推論(CoT)を統合し、深いマルチモーダル推論をサポートする。
広範囲にわたる実験により、SIcogはマルチモーダル認知を著しく改善した次世代基盤MLLMを生産することが示された。
論文 参考訳(メタデータ) (2025-03-16T00:25:13Z) - Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - Majority Kernels: An Approach to Leverage Big Model Dynamics for Efficient Small Model Training [32.154166415680066]
蒸留、圧縮、量子化といった手法は、高性能な大きなモデルを利用してより小さな性能のモデルを誘導するのに役立つ。
本稿では、単一トレーニングランが同時に、より大きなパフォーマンスモデルをトレーニングし、より小さなデプロイメントモデルを導出できるという仮説を考察する。
論文 参考訳(メタデータ) (2024-02-07T17:07:41Z) - Decentralized Training of Foundation Models in Heterogeneous
Environments [77.47261769795992]
GPT-3 や PaLM のようなトレーニング基盤モデルは、非常に高価である。
ヘテロジニアスネットワーク上での分散型システムにおけるモデル並列化を用いた大規模基盤モデルのトレーニングに関する最初の研究について述べる。
論文 参考訳(メタデータ) (2022-06-02T20:19:51Z) - Concepts and Algorithms for Agent-based Decentralized and Integrated
Scheduling of Production and Auxiliary Processes [78.120734120667]
本稿ではエージェントベースの分散型統合スケジューリング手法について述べる。
要求の一部は、線形にスケールする通信アーキテクチャを開発することである。
このアプローチは、工業的要件に基づいた例を使って説明されます。
論文 参考訳(メタデータ) (2022-05-06T18:44:29Z) - Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning [55.198301429316125]
機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
論文 参考訳(メタデータ) (2022-02-07T15:04:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。