論文の概要: AI-Augmented CI/CD Pipelines: From Code Commit to Production with Autonomous Decisions
- arxiv url: http://arxiv.org/abs/2508.11867v1
- Date: Sat, 16 Aug 2025 01:51:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.423712
- Title: AI-Augmented CI/CD Pipelines: From Code Commit to Production with Autonomous Decisions
- Title(参考訳): AIによるCI/CDパイプラインの強化 - コードコミットから自動決定による運用への移行
- Authors: Mohammad Baqar, Saba Naqvi, Rajat Khanda,
- Abstract要約: 我々は、大規模言語モデルと自律エージェントがポリシーに縛られたコパイロットとして機能するAI強化CI/CDパイプラインを提案する。
我々は、倫理、検証、監査可能性、妥当性への脅威について議論し、本番配送システムにおける検証可能な自律性に関するロードマップを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern software delivery has accelerated from quarterly releases to multiple deployments per day. While CI/CD tooling has matured, human decision points interpreting flaky tests, choosing rollback strategies, tuning feature flags, and deciding when to promote a canary remain major sources of latency and operational toil. We propose AI-Augmented CI/CD Pipelines, where large language models (LLMs) and autonomous agents act as policy-bounded co-pilots and progressively as decision makers. We contribute: (1) a reference architecture for embedding agentic decision points into CI/CD, (2) a decision taxonomy and policy-as-code guardrail pattern, (3) a trust-tier framework for staged autonomy, (4) an evaluation methodology using DevOps Research and Assessment ( DORA) metrics and AI-specific indicators, and (5) a detailed industrial-style case study migrating a React 19 microservice to an AI-augmented pipeline. We discuss ethics, verification, auditability, and threats to validity, and chart a roadmap for verifiable autonomy in production delivery systems.
- Abstract(参考訳): 現代のソフトウェアデリバリは、四半期リリースから1日に複数のデプロイメントへと加速しています。
CI/CDツーリングが成熟する一方で、不安定なテストの解釈、ロールバック戦略の選択、フィーチャーフラグのチューニング、カナリアのプロモートの決定といった人的決定ポイントは、レイテンシと運用上の障害の主要なソースとして残っています。
我々は、大規模言語モデル(LLM)と自律エージェントがポリシバウンドのコパイロットとして機能し、意思決定者として徐々に機能するAI強化CI/CDパイプラインを提案する。
1)エージェント決定ポイントをCI/CDに組み込むリファレンスアーキテクチャ,(2)決定分類とポリシ・アズ・コードガードレールパターン,(3)ステージド自律性のための信頼層フレームワーク,(4)DevOpsリサーチ・アセスメント(DORA)メトリクスとAI固有の指標を用いた評価方法論,(5)React 19マイクロサービスをAI拡張パイプラインに移行するための詳細な産業スタイルのケーススタディ。
我々は、倫理、検証、監査可能性、妥当性への脅威について議論し、本番配送システムにおける検証可能な自律性に関するロードマップを示す。
関連論文リスト
- HADA: Human-AI Agent Decision Alignment Architecture [0.0]
HADAはプロトコルとフレームワークのリファレンスアーキテクチャであり、大きな言語モデル(LLM)エージェントとレガシーアルゴリズムの両方を組織的目標と値に一致させる。
技術的および非技術的アクターは、戦略的、戦術的、リアルタイムな地平線を越えて、あらゆる決定をクエリ、ステア、監査、または競合することができる。
論文 参考訳(メタデータ) (2025-06-01T14:04:52Z) - Generative AI for Autonomous Driving: Frontiers and Opportunities [145.6465312554513]
この調査は、自律運転スタックにおけるGenAIの役割の包括的合成を提供する。
まず、VAE、GAN、拡散モデル、および大規模言語モデルを含む、現代の生成モデリングの原則とトレードオフを蒸留することから始めます。
我々は、合成データ一般化、エンドツーエンド駆動戦略、高忠実なデジタルツインシステム、スマートトランスポートネットワーク、具体化されたAIへのクロスドメイン転送など、実用的な応用を分類する。
論文 参考訳(メタデータ) (2025-05-13T17:59:20Z) - Measuring AI agent autonomy: Towards a scalable approach with code inspection [8.344207672507334]
我々は、特定のタスクを実行するためにAIエージェントを実行する必要をなくす、自律性に関するコードベースの評価を導入する。
このアプローチをAutoGenフレームワークで実証し、アプリケーションを選択します。
論文 参考訳(メタデータ) (2025-02-21T04:58:40Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - RCAgent: Cloud Root Cause Analysis by Autonomous Agents with Tool-Augmented Large Language Models [46.476439550746136]
近年,クラウド根本原因分析(RCA)における言語モデル (LLM) の適用が活発に検討されている。
RCAgentは、実用的でプライバシに配慮した産業RCA利用のためのツール強化LDM自律エージェントフレームワークである。
RCAgentはGPTファミリではなく、内部的にデプロイされたモデル上で動作し、フリーフォームのデータ収集とツールによる包括的な分析を行うことができる。
論文 参考訳(メタデータ) (2023-10-25T03:53:31Z) - The Pipeline for the Continuous Development of Artificial Intelligence
Models -- Current State of Research and Practice [3.793596705511303]
本論文は,151の関連資料と非公式資料を統合した多言語文献レビューを含む。
パイプラインの実装、適応、AIの継続的開発のための使用に関する課題を、これら4つのステージにマップします。
論文 参考訳(メタデータ) (2023-01-21T20:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。