論文の概要: Improving Merge Pipeline Throughput in Continuous Integration via Pull Request Prioritization
- arxiv url: http://arxiv.org/abs/2508.08342v1
- Date: Mon, 11 Aug 2025 08:25:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.185186
- Title: Improving Merge Pipeline Throughput in Continuous Integration via Pull Request Prioritization
- Title(参考訳): プルリクエスト優先順位付けによる継続的インテグレーションにおけるマージパイプラインスループットの改善
- Authors: Maximilian Jungwirth, Martin Gruber, Gordon Fraser,
- Abstract要約: 本稿では,実際のビルド予測を用いて,マージパイプラインにおけるPRの順序を最適化することを提案する。
ピーク時間中におそらく通過するPRを動的に優先順位付けすることで、最も重要となるスループットを最大化する。
- 参考スコア(独自算出の注目度): 11.003075182677156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integrating changes into large monolithic software repositories is a critical step in modern software development that substantially impacts the speed of feature delivery, the stability of the codebase, and the overall productivity of development teams. To ensure the stability of the main branch, many organizations use merge pipelines that test software versions before the changes are permanently integrated. However, the load on merge pipelines is often so high that they become bottlenecks, despite the use of parallelization. Existing optimizations frequently rely on specific build systems, limiting their generalizability and applicability. In this paper we propose to optimize the order of PRs in merge pipelines using practical build predictions utilizing only historical build data, PR metadata, and contextual information to estimate the likelihood of successful builds in the merge pipeline. By dynamically prioritizing likely passing PRs during peak hours, this approach maximizes throughput when it matters most. Experiments conducted on a real-world, large-scale project demonstrate that predictive ordering significantly outperforms traditional first-in-first-out (FIFO), as well as non-learning-based ordering strategies. Unlike alternative optimizations, this approach is agnostic to the underlying build system and thus easily integrable into existing automated merge pipelines.
- Abstract(参考訳): 大きなモノリシックなソフトウェアリポジトリへの変更の統合は、機能提供のスピード、コードベースの安定性、開発チーム全体の生産性に大きく影響する、現代のソフトウェア開発における重要なステップである。
メインブランチの安定性を保証するため、多くの組織では、変更が永続的に統合される前に、ソフトウェアバージョンをテストするマージパイプラインを使用している。
しかし、マージパイプラインの負荷は高いため、並列化の使用にもかかわらずボトルネックになることが多い。
既存の最適化は、しばしば特定のビルドシステムに依存し、その一般化性と適用性を制限する。
本稿では,過去のビルドデータ,PRメタデータ,コンテキスト情報のみを用いて,マージパイプラインにおけるビルド成功確率を推定する実用的なビルド予測を用いて,マージパイプラインにおけるPRの順序を最適化することを提案する。
ピーク時間中におそらく通過するPRを動的に優先順位付けすることで、最も重要となるスループットを最大化する。
実世界の大規模プロジェクトで実施された実験では、予測的順序付けが従来のファースト・イン・ファースト・アウト(FIFO)と非学習ベースの順序付け戦略を著しく上回っていることが示されている。
代替最適化とは異なり、このアプローチは基盤となるビルドシステムに依存しないため、既存の自動マージパイプラインに簡単に統合できる。
関連論文リスト
- syftr: Pareto-Optimal Generative AI [40.80352098169579]
syftrはエージェントと非エージェントのRAG構成の広い領域で効率的な多目的探索を行うフレームワークである。
Syftrは、最も正確な流れの正確さを保ちながら、平均して9倍のコストで流れを見つける。
論文 参考訳(メタデータ) (2025-05-26T17:43:13Z) - Practical Pipeline-Aware Regression Test Optimization for Continuous Integration [9.079940595000087]
継続的インテグレーション(CI)は、一貫したコード品質を保証するために一般的に適用されます。
開発者は一般的に、複数のパイプラインにまたがってテスト実行を分割し、サブミット前の段階で小さくて速いテストを実行し、ポストサブミット後のパイプラインで長時間実行し、不安定なテストを実行する。
言語に依存しない特徴に基づいて訓練された強化学習モデルを用いて,軽量かつパイプライン対応の回帰テスト最適化手法を開発した。
論文 参考訳(メタデータ) (2025-01-20T15:39:16Z) - Flow with FlorDB: Incremental Context Maintenance for the Machine Learning Lifecycle [9.424552130799661]
機械学習パイプラインから任意のメタデータを抽出・クエリする手法を提案する。
後ろ向きのロギングによって、そのようなステートメントが追加され、ポストホックで実行されるかを示します。
これは、アジャイル開発の重要なパスから外れた"メタメタスタイル"で行われます。
論文 参考訳(メタデータ) (2024-08-05T14:21:00Z) - A Refreshed Similarity-based Upsampler for Direct High-Ratio Feature Upsampling [54.05517338122698]
一般的な類似性に基づく機能アップサンプリングパイプラインが提案されている。
本稿では,セマンティック・アウェアとディテール・アウェアの両方の観点から,明示的に制御可能なクエリキー機能アライメントを提案する。
我々は,モーザイクアーティファクトを緩和する上ではシンプルだが有効であるHR特徴に対して,きめ細かな近傍選択戦略を開発する。
論文 参考訳(メタデータ) (2024-07-02T14:12:21Z) - Never Train from Scratch: Fair Comparison of Long-Sequence Models Requires Data-Driven Priors [44.5740422079]
標準的なデノベーション目的による事前トレーニングは、複数のアーキテクチャで劇的に向上することを示す。
先行研究とは対照的に、適切に事前訓練された場合の長距離アリーナでのS4の性能に適合するバニラトランスフォーマーが見つかる。
論文 参考訳(メタデータ) (2023-10-04T17:17:06Z) - Deep incremental learning models for financial temporal tabular datasets
with distribution shifts [0.9790236766474201]
このフレームワークは、単純な基本的なビルディングブロック(決定木)を使用して、必要な複雑さの自己相似モデルを構築する。
我々は,NumeraiデータセットでトレーニングしたXGBoostモデルを用いて提案手法を実証し,異なるモデルスナップショット上での2層のXGBoostモデルの深部アンサンブルが高品質な予測を提供することを示す。
論文 参考訳(メタデータ) (2023-03-14T14:10:37Z) - Where Is My Training Bottleneck? Hidden Trade-Offs in Deep Learning
Preprocessing Pipelines [77.45213180689952]
ディープラーニングにおける前処理パイプラインは、トレーニングプロセスを忙しくするための十分なデータスループットの提供を目的としている。
エンドツーエンドのディープラーニングパイプラインのためのデータセットを効率的に準備する新たな視点を導入する。
チューニングされていないシステムに比べてスループットが3倍から13倍に向上する。
論文 参考訳(メタデータ) (2022-02-17T14:31:58Z) - DHA: End-to-End Joint Optimization of Data Augmentation Policy,
Hyper-parameter and Architecture [81.82173855071312]
本稿では,AutoMLコンポーネントを統合したエンドツーエンドソリューションを提案する。
Dhaは、様々なデータセット、特にセルベースの検索空間を持つImageNetの77.4%の精度で、最先端(SOTA)結果を達成する。
論文 参考訳(メタデータ) (2021-09-13T08:12:50Z) - Stochastic Optimization with Laggard Data Pipelines [65.20044914532221]
共通最適化手法の「データ抽出」拡張は同期手法よりも優れた性能を示すことを示す。
具体的には、ミニバッチによる凸最適化において、データエコーは、最適統計率を維持しながら収束率の曲率に支配される部分の高速化をもたらすことを示す。
論文 参考訳(メタデータ) (2020-10-26T14:55:31Z) - MLCask: Efficient Management of Component Evolution in Collaborative
Data Analytics Pipelines [29.999324319722508]
マシンラーニングパイプラインのデプロイ時に発生する2つの大きな課題に対処し、エンドツーエンド分析システムMLCaskのバージョニング設計で対処する。
我々は,再利用可能な履歴記録とパイプライン互換性情報を用いて,パイプライン探索木を刈り取ることで,メートル法駆動のマージ操作を定義し,高速化する。
MLCaskの有効性は、いくつかの実世界の展開事例に関する広範な研究を通じて評価される。
論文 参考訳(メタデータ) (2020-10-17T13:34:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。