論文の概要: LLM-Augmented Release Intelligence: Automated Change Summarization and Impact Analysis in Cloud-Native CI/CD Pipelines
- arxiv url: http://arxiv.org/abs/2603.14619v1
- Date: Sun, 15 Mar 2026 21:30:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.91985
- Title: LLM-Augmented Release Intelligence: Automated Change Summarization and Impact Analysis in Cloud-Native CI/CD Pipelines
- Title(参考訳): LLM拡張リリースインテリジェンス: クラウドネイティブCI/CDパイプラインにおける自動変更要約と影響分析
- Authors: Happy Bhati,
- Abstract要約: クラウドネイティブなソフトウェアデリバリプラットフォームは、数十の独立したバージョン管理タスクで構成される複雑なマルチステージパイプラインを通じて、リリースをオーケストレーションする。
このようなリリースコミュニケーションのマニュアル準備は遅く、一貫性がなく、特にリポジトリではエラーが発生します。
1) 自動コミット収集とセマンティックフィルタリングを併用して,定期的なメンテナンスを抑えながら実体的変化を表面化する,(2) 階層化された大規模言語モデル要約による分類,利害関係者指向のプロモーションレポートの生成,(3) 修正タスクを参加者が参加するパイプライン毎にマップする静的タスク-パイプライン依存性分析, そして各変更のブラスト半径を定量化する,という3つの機能を組み合わせたAI強化リリースインテリジェンスのためのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cloud-native software delivery platforms orchestrate releases through complex, multi-stage pipelines composed of dozens of independently versioned tasks. When code is promoted between environments -- development to staging, staging to production -- engineering teams need timely, accurate communication about what changed and what downstream components are affected. Manual preparation of such release communication is slow, inconsistent, and particularly error-prone in repositories where a single promotion may bundle contributions from many authors across numerous pipeline tasks. We present a framework for AI-augmented release intelligence that combines three capabilities: (1) automated commit collection with semantic filtering to surface substantive changes while suppressing routine maintenance, (2) structured large language model summarization that produces categorized, stakeholder-oriented promotion reports, and (3) static task-pipeline dependency analysis that maps modified tasks to every pipeline they participate in, quantifying the blast radius of each change. The framework is integrated directly into the CI/CD promotion workflow and operates as a post-promotion step triggered by GitHub Actions. We describe the architecture and implementation within a production Kubernetes-native release platform that manages over sixty Tekton tasks across more than twenty release pipelines. Through concrete walkthrough examples and qualitative comparison with recent tools such as SmartNote and VerLog, we discuss the distinctive requirements of internal promotion communication versus user-facing release notes and identify open challenges for LLM-driven release engineering.
- Abstract(参考訳): クラウドネイティブなソフトウェアデリバリプラットフォームは、数十の独立したバージョン管理タスクで構成される複雑なマルチステージパイプラインを通じて、リリースをオーケストレーションする。
開発からステージング、運用へのステージングといった、開発環境間でコードをプロモートする場合、エンジニアリングチームは、変更点とダウンストリームコンポーネントの影響について、タイムリーかつ正確なコミュニケーションを必要とします。
このようなリリースコミュニケーションのマニュアル準備は遅く、一貫性がなく、特に単一のプロモーションが多数のパイプラインタスクにまたがって多くの著者からのコントリビューションをバンドルするリポジトリではエラーが発生しやすい。
本稿では,(1)自動コミット収集とセマンティックフィルタリングを併用して,定期的なメンテナンスを抑えながら実体的変化を表面化する,(2)分類された利害関係者指向のプロモーションレポートを生成する構造化された大規模言語モデル要約,(3)修正タスクを参加者が参加するパイプライン毎にマップする静的タスク-パイプライン依存性分析,および各変更のブラスト半径を定量化する,という3つの機能を組み合わせたAI強化リリースインテリジェンスのためのフレームワークを提案する。
このフレームワークはCI/CDプロモーションワークフローに直接統合されており、GitHub Actionsによって起動された後ステップとして動作する。
20以上のリリースパイプラインで60以上のTektonタスクを管理する、実運用のKubernetesネイティブリリースプラットフォームにおけるアーキテクチャと実装について説明する。
具体的なウォークスルー例と,SmartNoteやVerLogといった最近のツールとの質的な比較を通じて,ユーザ側のリリースノートに対する内部プロモーションコミュニケーションの特有の要件について議論し,LLM駆動のリリースエンジニアリングにおけるオープンな課題を特定する。
関連論文リスト
- SWE-Hub: A Unified Production System for Scalable, Executable Software Engineering Tasks [10.106518618464888]
SWE-Hubは、データファクトリの抽象化を運用するエンドツーエンドシステムである。
環境の自動化、スケーラブルな合成、多様なタスク生成をコヒーレントなプロダクションスタックに統合する。
論文 参考訳(メタデータ) (2026-02-28T09:53:48Z) - ABC-Bench: Benchmarking Agentic Backend Coding in Real-World Development [72.4729759618632]
本稿では,現実的かつ実行可能なワークフロー内でエージェントバックエンドコーディングを評価するベンチマークであるABC-Benchを紹介する。
オープンソースリポジトリから8つの言語と19のフレームワークにまたがる224の実践的なタスクをキュレートしました。
我々の評価は、最先端モデルでさえ、これらの総合的なタスクに対して信頼性の高いパフォーマンスを提供するのに苦労していることを示している。
論文 参考訳(メタデータ) (2026-01-16T08:23:52Z) - EnvScaler: Scaling Tool-Interactive Environments for LLM Agent via Programmatic Synthesis [101.67583081810136]
大規模言語モデル(LLM)は、様々な現実世界環境においてエージェントとして機能するよう訓練されることが期待されている。
このプロセスはリッチで多様なツール・インタラクション・サンドボックスに依存している。
スケーラブルなツールインタラクション環境のための自動化フレームワークであるEnvScalerを提案する。
論文 参考訳(メタデータ) (2026-01-09T14:32:06Z) - A Declarative Language for Building And Orchestrating LLM-Powered Agent Workflows [0.0]
本稿では,エージェントワークフロー仕様と実装を分離する宣言型システムを提案する。
これらの結果から,開発時間の60%削減,デプロイメント速度の3倍の改善が見られた。
製品検索やパーソナライズ,カート管理といった複雑な処理は,500行以上の命令型コードと比較して,50行未満のDSLで表現可能であることを示す。
論文 参考訳(メタデータ) (2025-12-22T05:03:37Z) - FABRIC: Framework for Agent-Based Realistic Intelligence Creation [3.940391073007047]
大規模言語モデル(LLM)はエージェントとしてますます多くデプロイされ、目標を分解し、ツールを実行し、動的環境で結果を検証することが期待されている。
本稿では,LLMのみを用いたエージェントデータの統一化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-20T18:20:22Z) - SwingArena: Competitive Programming Arena for Long-context GitHub Issue Solving [90.32201622392137]
We present SwingArena, a competitive evaluation framework for Large Language Models (LLMs)。
従来の静的ベンチマークとは異なり、SwingArenaはLLMをイテレーションとして組み合わせて、テストケースを作成し、継続的インテグレーション(CI)パイプラインを通じてパッチを検証するパッチとレビュアーを生成することで、ソフトウェアのコラボレーションプロセスをモデル化する。
論文 参考訳(メタデータ) (2025-05-29T18:28:02Z) - SWE-rebench: An Automated Pipeline for Task Collection and Decontaminated Evaluation of Software Engineering Agents [31.921127664873882]
LLMベースのエージェントは、SWE(Software Engineering)タスクの増加に期待できる能力を示している。
高品質なトレーニングデータは、特に現実世界のSWEシナリオを反映したデータが少ない。
既存のデータセットはワンショットのコード生成に限られるか、小さな手作業による対話的なタスクのコレクションで構成されている。
論文 参考訳(メタデータ) (2025-05-26T18:01:00Z) - OmniParser V2: Structured-Points-of-Thought for Unified Visual Text Parsing and Its Generality to Multimodal Large Language Models [58.45517851437422]
VsTP(Visually-situated text parsing)は、自動化された文書理解の需要が高まり、最近顕著な進歩を遂げている。
既存のソリューションは、タスク固有のアーキテクチャと個々のタスクの目的に依存していることが多い。
本稿では,テキストスポッティング,キー情報抽出,テーブル認識,レイアウト解析など,VsTPの典型的なタスクを統一する汎用モデルであるOmni V2を紹介する。
論文 参考訳(メタデータ) (2025-02-22T09:32:01Z) - LLM-AutoDiff: Auto-Differentiate Any LLM Workflow [58.56731133392544]
自動プロンプト工学(APE)のための新しいフレームワーク LLM-AutoDiff について紹介する。
LLMs-AutoDiffは、各テキスト入力をトレーニング可能なパラメータとして扱い、フリーズした後方エンジンを使用して、テキスト勾配に対するフィードバック・アキンを生成する。
精度とトレーニングコストの両方において、既存のテキスト勾配ベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-01-28T03:18:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。