論文の概要: Grounded AI for Code Review: Resource-Efficient Large-Model Serving in Enterprise Pipelines
- arxiv url: http://arxiv.org/abs/2510.10290v1
- Date: Sat, 11 Oct 2025 17:08:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.877898
- Title: Grounded AI for Code Review: Resource-Efficient Large-Model Serving in Enterprise Pipelines
- Title(参考訳): コードレビューのための接地AI - エンタープライズパイプラインでのリソース効率の高い大規模モデルの実行
- Authors: Sayan Mandal, Hua Jiang,
- Abstract要約: 本稿では,静的解析結果とAST誘導文脈抽出とを組み合わせた,基底型PRネイティブレビューシステムを提案する。
このアプローチは、競争力のある違反削減を維持しながら、サブ分間の第一フィードバックを達成する。
- 参考スコア(独自算出の注目度): 4.154714580436713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated code review adoption lags in compliance-heavy settings, where static analyzers produce high-volume, low-rationale outputs, and naive LLM use risks hallucination and incurring cost overhead. We present a production system for grounded, PR-native review that pairs static-analysis findings with AST-guided context extraction and a single-GPU, on-demand serving stack (quantized open-weight model, multi-tier caching) to deliver concise explanations and remediation guidance. Evaluated on safety-oriented C/C++ standards, the approach achieves sub-minute median first-feedback (offline p50 build+LLM 59.8s) while maintaining competitive violation reduction and lower violation rates versus larger proprietary models. The architecture is decoupled: teams can adopt the grounding/prompting layer or the serving layer independently. A small internal survey (n=8) provides directional signals of reduced triage effort and moderate perceived grounding, with participants reporting fewer human review iterations. We outline operational lessons and limitations, emphasizing reproducibility, auditability, and pathways to broader standards and assisted patching.
- Abstract(参考訳): 静的アナライザが高ボリュームで低レートのアウトプットを生成し、LLMが幻覚とコストオーバーヘッドを発生させるような、コンプライアンスの重い設定でのコードレビューの採用を自動化します。
本稿では,静的解析結果とAST誘導コンテキスト抽出とを組み合わせ,単一GPU,オンデマンドサービススタック(量子化されたオープンウェイトモデル,多層キャッシング)を併用して,簡潔な説明と修復指導を行う,グラウンドド型PRネイティブレビューシステムを提案する。
安全指向のC/C++標準に基づいて評価され、この手法は、より大規模なプロプライエタリモデルと比較して、競争力のある違反削減と低い違反率を維持しながら、サブ分間の第一フィードバック(オフラインのp50 build+LLM 59.8s)を達成する。
チームはグラウンド/プロンプティング層あるいはサービス層を独立して採用することができる。
小さな内部調査(n=8)では、トリアージの労力を減らし、適度に知覚された接地を行う方向のシグナルが提供され、レビューのイテレーションは少ないと報告されている。
再現性、監査可能性、より広範な標準への道筋を強調し、パッチ適用を支援しながら、運用上の教訓と限界を概説する。
関連論文リスト
- Audited Reasoning Refinement: Fine-Tuning Language Models via LLM-Guided Step-Wise Evaluation and Correction [1.41282143488996]
人間の直接監督や高品質なラベルが不足している場合、タスク固有の小さな推論モデルのトレーニングは困難である。
本稿では,Reason-Refine-then-Align (R2tA)を提案する。
論文 参考訳(メタデータ) (2025-09-15T21:47:52Z) - STARec: An Efficient Agent Framework for Recommender Systems via Autonomous Deliberate Reasoning [54.28691219536054]
我々は、自律的な熟考的推論機能を備えたレコメンデータシステムを支援する、ゆっくり考えられた拡張エージェントフレームワークSTARecを紹介する。
我々は,先進的推論モデルと嗜好整合型報酬形成から構造化知識の蒸留を組み合わせた2段階のパラダイムであるアンカー強化訓練を開発する。
MovieLens 1MとAmazon CDsベンチマークの実験では、STARecは最先端のベースラインと比較して、大幅なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-08-26T08:47:58Z) - QuantVSR: Low-Bit Post-Training Quantization for Real-World Video Super-Resolution [53.13952833016505]
実世界のビデオ超解像(VSR)のための低ビット量子化モデルを提案する。
キャリブレーションデータセットを用いて各レイヤの空間的および時間的複雑さを計測する。
我々はFPおよび低ビット分岐を改良し、同時最適化を実現する。
論文 参考訳(メタデータ) (2025-08-06T14:35:59Z) - Normalized Attention Guidance: Universal Negative Guidance for Diffusion Models [57.20761595019967]
注意空間にL1をベースとした正規化・精細化を施した,効率的かつトレーニング不要な機構である正規化注意誘導(NAG)を提案する。
NAGは、CFGが忠実性を維持しながら崩壊する効果的な負のガイダンスを復元する。
NAGはアーキテクチャ(UNet、DiT)、サンプリングレシスタンス(複数ステップ、複数ステップ)、モダリティ(イメージ、ビデオ)をまたいで一般化する
論文 参考訳(メタデータ) (2025-05-27T13:30:46Z) - A Few Large Shifts: Layer-Inconsistency Based Minimal Overhead Adversarial Example Detection [13.109309606764754]
我々は、ターゲットモデル自体の内部の階層的不整合を利用するプラグイン検出フレームワークを導入する。
本手法は計算オーバーヘッドを無視して最先端検出性能を実現する。
論文 参考訳(メタデータ) (2025-05-19T00:48:53Z) - Whoever Started the Interference Should End It: Guiding Data-Free Model Merging via Task Vectors [27.848233831749216]
textbfWUDI-Merging(textbfWhoever started the interference shotextbfUld entextbfD textbfIt)は、追加データや再スケーリング係数なしで干渉を排除するモデルマージ手法である。
視覚と言語ベンチマークの総合的な経験的評価は、我々の方法の優位性を示している。
論文 参考訳(メタデータ) (2025-03-11T07:01:35Z) - Direct Preference Optimization: Your Language Model is Secretly a Reward Model [119.65409513119963]
本稿では,RLHFにおける報酬モデルの新たなパラメータ化について紹介する。
DPO(Direct Preference Optimization)と呼ばれる結果のアルゴリズムは、安定的で、性能が高く、計算的にも軽量である。
我々の実験は、DPOが人間の好みに合わせて微調整できるだけでなく、既存の方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-29T17:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。