論文の概要: Incrementalizing Production CodeQL Analyses
- arxiv url: http://arxiv.org/abs/2308.09660v1
- Date: Fri, 18 Aug 2023 16:22:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 13:27:53.964132
- Title: Incrementalizing Production CodeQL Analyses
- Title(参考訳): 生産用CodeQL分析のインクリメンタル化
- Authors: Tam\'as Szab\'o
- Abstract要約: インクリメンタルな静的解析は1回だけ完全に解析し、コードの変更に基づいて前の結果を更新する。
CodeQL用のインクリメンタルソルバのプロトタイプを作成し、インクリメンタル性を活用しています。
コード変更のサイズに比例した更新時間を実際に達成できることを示す実験結果について報告する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Instead of repeatedly re-analyzing from scratch, an incremental static
analysis only analyzes a codebase once completely, and then it updates the
previous results based on the code changes. While this sounds promising to
achieve speed-ups, the reality is that sophisticated static analyses typically
employ features that can ruin incremental performance, such as
inter-procedurality or context-sensitivity. In this study, we set out to
explore whether incrementalization can help to achieve speed-ups for production
CodeQL analyses that provide automated feedback on pull requests on GitHub. We
first empirically validate the idea by measuring the potential for reuse on
real-world codebases, and then we create a prototype incremental solver for
CodeQL that exploits incrementality. We report on experimental results showing
that we can indeed achieve update times proportional to the size of the code
change, and we also discuss the limitations of our prototype.
- Abstract(参考訳): 繰り返しスクラッチから再分析するのではなく、インクリメンタルな静的解析はコードベースを一度だけ完全に分析し、コード変更に基づいて以前の結果を更新する。
これはスピードアップを実現すると約束されているように思えるが、洗練された静的解析は通常、手続き間性やコンテキストセンシティビリティといったインクリメンタルなパフォーマンスを損なうような機能を備えている。
本研究では,githubのプルリクエストに対するフィードバックを自動で提供するcodeql解析を,インクリメンタル化が本番環境の高速化に有効か検討する。
まず実世界のコードベースで再利用の可能性を測定して、そのアイデアを実証的に検証し、次にインクリメンタル性を活用するCodeQLのプロトタイプインクリメンタルソルバを作成しました。
コード変更のサイズに比例する更新時間を実際に達成できることを示す実験結果について報告し,プロトタイプの限界についても検討した。
関連論文リスト
- COrAL: Order-Agnostic Language Modeling for Efficient Iterative Refinement [80.18490952057125]
反復改良は、複雑なタスクにおける大規模言語モデル(LLM)の能力を高める効果的なパラダイムとして登場した。
我々はこれらの課題を克服するために、コンテキストワイズ順序非依存言語モデリング(COrAL)を提案する。
当社のアプローチでは、管理可能なコンテキストウィンドウ内で複数のトークン依存関係をモデル化しています。
論文 参考訳(メタデータ) (2024-10-12T23:56:19Z) - Codev-Bench: How Do LLMs Understand Developer-Centric Code Completion? [60.84912551069379]
Code-Development Benchmark (Codev-Bench)は、細粒度で現実世界、リポジトリレベル、開発者中心の評価フレームワークです。
Codev-Agentは、リポジトリのクローリングを自動化し、実行環境を構築し、既存のユニットテストから動的呼び出しチェーンを抽出し、データ漏洩を避けるために新しいテストサンプルを生成するエージェントベースのシステムである。
論文 参考訳(メタデータ) (2024-10-02T09:11:10Z) - Scalable Sparse Regression for Model Discovery: The Fast Lane to Insight [0.0]
シンボリックライブラリに適用されたスパース回帰は、データから直接方程式を学習する強力なツールとして急速に現れてきた。
最近提案された網羅的探索を拡張した汎用モデルスパース回帰アルゴリズムを提案する。
これは、小さな係数に対する非依存的な感度を維持することを目的としており、大きなシンボルライブラリーにとって妥当な計算コストである。
論文 参考訳(メタデータ) (2024-05-14T18:09:43Z) - Automating Patch Set Generation from Code Review Comments Using Large Language Models [2.045040820541428]
5つの人気のあるLarge Language Model(LLM)にコードコンテキストを提供します。
実世界のコードレビューコメントから提案したコード変更(パッチセット)を得る。
生成したパッチセットを人為的なパッチセットの履歴データと比較することにより、各モデルの性能を慎重に評価する。
論文 参考訳(メタデータ) (2024-04-10T02:46:08Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - Repoformer: Selective Retrieval for Repository-Level Code Completion [30.706277772743615]
検索強化生成(RAG)の最近の進歩は、リポジトリレベルのコード補完の新たな時代が始まった。
本稿では,不要な場合の検索を回避するため,選択的なRAGフレームワークを提案する。
我々のフレームワークは、異なる世代モデル、レトリバー、プログラミング言語に対応できることを示します。
論文 参考訳(メタデータ) (2024-03-15T06:59:43Z) - PACE: A Program Analysis Framework for Continuous Performance Prediction [0.0]
PACEはプログラム分析フレームワークで、保留中のコード更新のパフォーマンスへの影響を継続的にフィードバックする。
コード更新によって機能テストケースの実行時間をマッピングすることで,パフォーマンスのマイクロベンチマークを設計する。
我々の実験は、コード性能の予測において、ニューラル表現されたコードスタイメトリーの特徴において、現在の最先端を75%上回る性能を達成した。
論文 参考訳(メタデータ) (2023-12-01T20:43:34Z) - Fast Chain-of-Thought: A Glance of Future from Parallel Decoding Leads to Answers Faster [61.83949316226113]
FastCoTは並列デコーディングに基づくモデルに依存しないフレームワークである。
我々は、FastCoTが通常のアプローチと比較して、無視できる性能低下だけで、推論時間を20%近く削減できることを示します。
論文 参考訳(メタデータ) (2023-11-14T15:56:18Z) - Improving Text Matching in E-Commerce Search with A Rationalizable,
Intervenable and Fast Entity-Based Relevance Model [78.80174696043021]
エンティティベース関連モデル(EBRM)と呼ばれる新しいモデルを提案する。
この分解により、高精度にクロスエンコーダQE関連モジュールを使用できる。
また、ユーザログから自動生成されたQEデータによるQEモジュールの事前トレーニングにより、全体的なパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-07-01T15:44:53Z) - Extensible Logging and Empirical Attainment Function for IOHexperimenter [0.0]
IOHexperimenterは、大量の合成問題、ロギングシステム、高速な実装を提供する。
我々は,アルゴリズムのパフォーマンス指標をベンチマークで計算することを目的とした,新しいロガーを実装した。
経験的達成関数とその離散的特徴である経験的達成ヒストグラムに関する共通の統計を提供する。
論文 参考訳(メタデータ) (2021-09-28T14:52:52Z) - When Liebig's Barrel Meets Facial Landmark Detection: A Practical Model [87.25037167380522]
正確で、堅牢で、効率的で、一般化可能で、エンドツーエンドのトレーニングが可能なモデルを提案する。
精度を向上させるために,2つの軽量モジュールを提案する。
DQInitは、インプットからデコーダのクエリを動的に初期化し、複数のデコーダ層を持つものと同じ精度でモデルを実現する。
QAMemは、共有するクエリではなく、それぞれのクエリに別々のメモリ値を割り当てることで、低解像度のフィーチャーマップ上のクエリの識別能力を高めるように設計されている。
論文 参考訳(メタデータ) (2021-05-27T13:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。