論文の概要: Pre-Filtering Code Suggestions using Developer Behavioral Telemetry to Optimize LLM-Assisted Programming
- arxiv url: http://arxiv.org/abs/2511.18849v1
- Date: Mon, 24 Nov 2025 07:42:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.087607
- Title: Pre-Filtering Code Suggestions using Developer Behavioral Telemetry to Optimize LLM-Assisted Programming
- Title(参考訳): 開発者行動テレメトリを用いたLCM支援プログラミングの最適化のための事前フィルタコードの提案
- Authors: Mohammad Nour Al Awad, Sergey Ivanov, Olga Tikhonova,
- Abstract要約: 大規模言語モデル(LLM)は、AIによるコード提案を提供するために、コードエディタにますます統合されている。
しかし、これらの提案の多くは無視され、時間の無駄な計算、レイテンシの増加、不要な中断をもたらす。
LLMを起動する前に提案を受理する可能性を予測する軽量な事前フィルタモデルを導入する。
- 参考スコア(独自算出の注目度): 0.24160362166617352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are increasingly integrated into code editors to provide AI-powered code suggestions. Yet many of these suggestions are ignored, resulting in wasted computation, increased latency, and unnecessary interruptions. We introduce a lightweight pre-filtering model that predicts the likelihood of suggestion acceptance before invoking the LLM, using only real-time developer telemetry such as typing speed, file navigation, and editing activity. Deployed in a production-grade Visual Studio Code plugin over four months of naturalistic use, our approach nearly doubled acceptance rates (18.4% -> 34.2%) while suppressing 35% of low-value LLM calls. These findings demonstrate that behavioral signals alone can meaningfully improve both user experience and system efficiency in LLM-assisted programming, highlighting the value of timing-aware, privacy-preserving adaptation mechanisms. The filter operates solely on pre-invocation editor telemetry and never inspects code or prompts.
- Abstract(参考訳): 大規模言語モデル(LLM)は、AIによるコード提案を提供するために、コードエディタにますます統合されている。
しかし、これらの提案の多くは無視され、時間の無駄な計算、レイテンシの増加、不要な中断をもたらす。
入力速度やファイルナビゲーション,編集作業など,リアルタイムな開発者テレメトリのみを用いて,LLMを起動する前に提案を受理する可能性を予測する軽量な事前フィルタリングモデルを提案する。
4ヶ月にわたって実運用レベルのVisual Studio Codeプラグインにデプロイされ、私たちのアプローチは受け入れ率(18.4% -> 34.2%)をほぼ2倍にし、低価値なLCMコールの35%を抑えました。
これらの結果から,LCM支援プログラミングにおいて,行動信号だけでユーザエクスペリエンスとシステム効率が向上し,タイミング認識,プライバシ保護といった適応機構の価値が強調された。
このフィルタは、起動前のエディタテレメトリのみで動作し、コードやプロンプトを検査することはない。
関連論文リスト
- An Experimental Study of Real-Life LLM-Proposed Performance Improvements [2.503024366864326]
大きな言語モデル(LLM)はコードを生成することができますが、高速コードを生成することができますか?
我々は,オープンソースのJavaプログラムから抽出した65の実世界のタスクのデータセットを用いて,この問題を研究する。
論文 参考訳(メタデータ) (2025-10-17T10:06:52Z) - lm-Meter: Unveiling Runtime Inference Latency for On-Device Language Models [7.524517279167586]
大きな言語モデル(LLM)は、日々のアプリケーションにますます統合されています。
モバイルおよびエッジデバイス(オンデバイスLDM)でLLMをローカルに実行することは、プライバシー、信頼性、通信コストの削減を約束する。
オンデバイスLSM推論に適した,最初の軽量オンライン遅延プロファイラであるlm-Meterを提案する。
論文 参考訳(メタデータ) (2025-10-07T17:05:30Z) - Can Prompt Difficulty be Online Predicted for Accelerating RL Finetuning of Reasoning Models? [65.18157595903124]
本研究では任意のプロンプトの反復的近似評価について検討する。
Model Predictive Prompt Selection (MoPPS)はベイズにおけるリスク予測フレームワークである。
MoPPSは迅速な困難を確実に予測し、ロールアウトを大幅に削減したトレーニングを加速する。
論文 参考訳(メタデータ) (2025-07-07T03:20:52Z) - Quantizing Large Language Models for Code Generation: A Differentiated Replication [51.85505914274633]
大規模言語モデル(LLM)は、コード生成において印象的な能力を示しており、特に自然言語で記述された要求を自動的に実装する。
LLMはメモリ(そして結果として炭素)のフットプリントに重大な課題をもたらす。
LLM量子化の新しいフロンティアは4ビット精度であり、平均メモリフットプリントが70%減少する。
論文 参考訳(メタデータ) (2025-03-10T09:26:08Z) - PerfCodeGen: Improving Performance of LLM Generated Code with Execution Feedback [78.89596149768458]
大規模言語モデル(LLM)は、ソフトウェア開発タスクを支援するために広く採用されている。
LLM生成コードの性能を向上させるトレーニングフリーフレームワークPerfCodeGenを提案する。
論文 参考訳(メタデータ) (2024-11-18T06:22:38Z) - Efficiency Unleashed: Inference Acceleration for LLM-based Recommender Systems with Speculative Decoding [61.45448947483328]
LLMベースのレコメンダシステム(LASER)の投機的復号化によるロスレス高速化について紹介する。
LASERは、検索効率を高めるためのカスタマイズされた検索プールと、ドラフトトークンの受け入れ率を改善するための緩和検証を備えている。
LASERは公開データセットの3~5倍のスピードアップを実現し、オンラインA/Bテスト中に約67%の計算リソースを節約する。
論文 参考訳(メタデータ) (2024-08-11T02:31:13Z) - Applying RLAIF for Code Generation with API-usage in Lightweight LLMs [15.366324461797582]
Reinforcement Learning from AI Feedback (RLAIF)は、さまざまな領域で大きな可能性を証明している。
本稿では,軽量 (1B パラメータ) LLM のコード生成能力を改善するための RLAIF フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-28T17:16:03Z) - LangProp: A code optimization framework using Large Language Models applied to driving [17.581983909703283]
LangPropは、大規模言語モデル(LLM)によって生成されたコードを反復的に最適化するフレームワークである。
我々は、LangPropが、メトリックとデータ駆動の方法で検証と改善が可能な、解釈可能な、透過的なポリシーをどうやって生成できるかを示す。
論文 参考訳(メタデータ) (2024-01-18T18:52:06Z) - Compress, Then Prompt: Improving Accuracy-Efficiency Trade-off of LLM
Inference with Transferable Prompt [96.24800696597707]
圧縮モデルにより,このトレードオフを最適化する新たな視点を導入する。
本稿では,圧縮されたモデルを学習プロセスに公開するソフトプロンプト学習法を提案する。
我々のソフトプロンプト戦略は8x圧縮LLaMA-7Bモデルの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-05-17T20:45:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。