論文の概要: The Promise and Reality of Continuous Integration Caching: An Empirical Study of Travis CI Builds
- arxiv url: http://arxiv.org/abs/2601.19146v1
- Date: Tue, 27 Jan 2026 03:23:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 14:02:13.796774
- Title: The Promise and Reality of Continuous Integration Caching: An Empirical Study of Travis CI Builds
- Title(参考訳): 継続的インテグレーションキャッシングの約束と現実 - Travis CIビルドの実証的研究
- Authors: Taher A. Ghaleb, Daniel Alencar da Costa, Ying Zou,
- Abstract要約: 継続的インテグレーション(CI)は,ソフトウェア自動構築による早期フィードバックを提供する。
CIサービスは、頻繁に変更されるアーティファクトを再利用することで、ビルドを高速化するためのキャッシュメカニズムを提供する。
1,279のGitHubプロジェクトから513,384のビルドを分析します。
- 参考スコア(独自算出の注目度): 0.5951328229856059
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continuous Integration (CI) provides early feedback by automatically building software, but long build durations can hinder developer productivity. CI services offer caching mechanisms to speed up builds by reusing infrequently changing artifacts, yet little is known about how caching is adopted in practice and what challenges it entails. In this paper, we conduct a large-scale empirical study of CI caching in Travis CI, analyzing 513,384 builds from 1,279 GitHub projects. We find that only 30% of projects adopt CI caching, and early adoption is strongly associated with project maturity, such as more dependencies, more commits, and longer CI lifespans. To understand why many projects do not adopt caching, we submitted pull requests enabling caching in non-adopting projects, and nearly half were accepted or merged. Developer feedback suggests that non- or late adoption mainly stems from limited awareness of CI caching support. We also examine cache maintenance and identify five common activities, performed by 24% of cache-enabled projects. Although one-third of projects see substantial build-time reductions, cache uploads occur in 97% of builds, and 33% of projects contain stale cached artifacts. Finally, our analysis of reported caching issues shows developers mainly struggle with corrupted or outdated caches or request broader caching features. Overall, CI caching does not help all projects, needs ongoing maintenance, and is more complex in practice than many developers expect.
- Abstract(参考訳): 継続的インテグレーション(CI)は、ソフトウェアの自動ビルドによる早期フィードバックを提供するが、長いビルド期間は開発者の生産性を損なう可能性がある。
CIサービスは、頻繁に変更されるアーティファクトを再利用することでビルドを高速化するキャッシュメカニズムを提供する。
本稿では、1279のGitHubプロジェクトから513,384のビルドを分析し、Travis CIにおけるCIキャッシュに関する大規模な実証的研究を行う。
プロジェクトの30%だけがCIキャッシュを採用しており、早期採用は依存関係の増加、コミットの増加、CI寿命の延長など、プロジェクトの成熟度に強く結びついています。
多くのプロジェクトがキャッシングを採用していない理由を理解するため、非登録プロジェクトのキャッシングを可能にするプルリクエストを提出しました。
開発者からのフィードバックは、非採用や遅れは、主にCIキャッシュのサポートに対する認識が限定されていることに起因することを示唆している。
また,キャッシュ対応プロジェクトの24%が実施している5つの共通アクティビティについても検討した。
3分の1のプロジェクトはビルド時間の大幅に削減されるが、キャッシュのアップロードは97%のビルドで行われ、33%のプロジェクトは古いキャッシュされたアーティファクトを含んでいる。
最後に、報告されたキャッシュの問題を分析してみると、開発者は主に腐敗または時代遅れのキャッシュに苦しむか、より広範なキャッシュ機能を要求する。
全体として、CIキャッシュはすべてのプロジェクトに役立つものではなく、継続的にメンテナンスする必要がある。
関連論文リスト
- Don't Break the Cache: An Evaluation of Prompt Caching for Long-Horizon Agentic Tasks [1.2292307778008844]
本稿では,3大言語モデル(LLM)プロバイダ間でのプロンプトキャッシュの総合評価について述べる。
以上の結果から,プロンプトキャッシングによりAPIコストが45~80%削減され,プロバイダ間で13~31%短縮された。
論文 参考訳(メタデータ) (2026-01-09T18:41:57Z) - Tight Cache Contention Analysis for WCET Estimation on Multicore Systems [10.145532828522905]
マルチコアアーキテクチャのWCET推定は、複数のコアで共有されるキャッシュ上の複雑なアクセスのため、特に難しい。
本稿では,タスク中のプログラム領域の順序に基づいて,リモートアクセスが発生した場合に影響を受ける可能性のあるメモリ参照を最初に同定する。
本研究では,タスクのコア間キャッシュ干渉が動的プログラミングによって得られることを示す。
論文 参考訳(メタデータ) (2025-08-19T14:30:41Z) - LaCache: Ladder-Shaped KV Caching for Efficient Long-Context Modeling of Large Language Models [52.56008278458534]
LaCacheは、大規模言語モデルの効率的かつ正確な生成推論のためのトレーニング不要の手法である。
LaCacheを使用することで、LLMは長期モデリングにおける重要な課題、すなわち堅牢な長距離機能と、メモリのアウト・オブ・メモリを走らせることなく連続的な生成の両方に対処できる。
論文 参考訳(メタデータ) (2025-07-14T19:09:57Z) - Lookahead Q-Cache: Achieving More Consistent KV Cache Eviction via Pseudo Query [48.52389201779425]
KVキャッシュメモリの使用は、長いテキストシーケンスで大幅に増加する。
プリフィルステージアテンションスコアを用いた既存のKVキャッシュ消去手法Pruneトークン
Lookahead Q-Cacheは、真のデコードステージクエリをよりよく近似するために、低コストの疑似ルックアヘッドクエリを生成する。
論文 参考訳(メタデータ) (2025-05-24T10:34:38Z) - A Generative Caching System for Large Language Models [1.2132389187658934]
キャッシングは、大きな言語モデル(LLM)にアクセスする上で、大きなメリットをもたらす可能性がある。
本稿では,LLMを用いたユーザエクスペリエンス向上のための新しいキャッシングシステムを提案する。
生成キャッシングでは、複数のキャッシュされたレスポンスを合成して、これまで見たことのないクエリに対する回答を提供することができます。
論文 参考訳(メタデータ) (2025-03-22T01:17:56Z) - Auditing Prompt Caching in Language Model APIs [77.02079451561718]
大規模言語モデル(LLM)における即時キャッシュによるプライバシリークについて検討する。
OpenAIを含む7つのAPIプロバイダのユーザ間でのグローバルキャッシュ共有を検出します。
OpenAIの埋め込みモデルがデコーダのみのトランスフォーマーであることの証拠が見つかりました。
論文 参考訳(メタデータ) (2025-02-11T18:58:04Z) - Efficient Inference of Vision Instruction-Following Models with Elastic Cache [76.44955111634545]
我々は,命令追従型大規模視覚言語モデルの効率的なデプロイのための新しい戦略であるElastic Cacheを紹介する。
本稿では,冗長キャッシュを具現化する重要なキャッシュマージ戦略を提案する。
命令符号化では,キャッシュの重要性を評価するために周波数を利用する。
様々なLVLMの結果は、Elastic Cacheが効率を向上するだけでなく、言語生成における既存のプルーニングメソッドよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-25T15:29:05Z) - SCALM: Towards Semantic Caching for Automated Chat Services with Large Language Models [15.742472622602557]
セマンティック分析を重視し,重要なキャッシュエントリやパターンを識別する新しいキャッシュアーキテクチャであるSCALMを提案する。
評価の結果,SCALMはキャッシュヒット率を増大させ,LLMChatサービスの運用コストを低減させることがわかった。
論文 参考訳(メタデータ) (2024-05-24T08:16:22Z) - Get More with LESS: Synthesizing Recurrence with KV Cache Compression for Efficient LLM Inference [78.65321721142624]
我々はキー値(KV)キャッシュによって課されるメモリボトルネックに焦点を当てる。
既存のKVキャッシュ手法は、比較的重要でないKVペアの大きなスワストを刈り取ったり、取り除いたりすることでこの問題に対処する。
本稿では,固定サイズキャッシュと退避型キャッシュを簡易に統合したLESSを提案する。
論文 参考訳(メタデータ) (2024-02-14T18:54:56Z) - The Impact of a Continuous Integration Service on the Delivery Time of
Merged Pull Requests [8.108605385023939]
私たちは、CIサービス(TravisCI)を採用することで、統合されたPRを提供する時間を短縮できるかどうか調査する。
当社の結果から,CIサービスの採用がマージPRのデリバリを迅速化するとは限らないことが分かる。
CIが提供する自動化と開発者の自信の向上は、CIサービスを採用する上で重要なメリットである。
論文 参考訳(メタデータ) (2023-05-25T10:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。