論文の概要: Control Models for In-IDE Code Completion
- arxiv url: http://arxiv.org/abs/2601.20223v1
- Date: Wed, 28 Jan 2026 03:47:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.755091
- Title: Control Models for In-IDE Code Completion
- Title(参考訳): コード補完のための制御モデル
- Authors: Aral de Moor, Yana Hrynevich, Hleb Badzeika, Vladyslav Furda, Marko Kojic, Artem Savelev, Kostadin Cvejoski, Darya Rovdo, Ekaterina Garanina,
- Abstract要約: JetBrains では LLM によるコード補完の制御モデルを導入している。
我々は,n=98ユーザによる実コード補完のオフラインデータセット上で,ブーピングおよびトランスフォーマーベースのアーキテクチャを評価する。
生産環境では、完成効率と品質指標を改善するために、A/B研究を行います。
- 参考スコア(独自算出の注目度): 3.3317755633826764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce control models for LLM-powered code completion in JetBrains IDEs: ML classifiers which trigger inference and filter the generated suggestions to better align them with users and reduce unnecessary requests. To this end, we evaluate boosting- and transformer-based architectures on an offline dataset of real code completions with n=98 users. We further evaluate the offline classification performance of our boosting-based approach on a range of syntactically diverse languages; and perform an A/B study in a production environment where they improve completion efficiency and quality metrics. With this study, we hope to demonstrate the potential in using auxiliary models for smarter in-IDE integration of LLM-driven features, highlight fruitful future directions, and open problems.
- Abstract(参考訳): 推論をトリガーし、生成された提案をフィルタリングすることで、ユーザとの整合性を向上し、不要なリクエストを減らす。
この目的のために,n=98ユーザによる実コード補完のオフラインデータセット上で,ブーピングおよびトランスフォーマーベースのアーキテクチャを評価する。
さらに,構文的に多様な言語に対するブースティングベースアプローチのオフライン分類性能を評価し,生産環境におけるA/B研究を行い,完成効率と品質指標を改善する。
本研究は,LLM駆動機能のIDE内でのよりスマートな統合,実りある将来方向の強調,オープンな問題への補助モデルの適用の可能性を示すものである。
関連論文リスト
- Software Defined Vehicle Code Generation: A Few-Shot Prompting Approach [0.0]
汎用大規模言語モデル (LLM) は、ドメイン間の変換ポテンシャルを実証している。
本研究は, LLMと対話し, 応答をリダイレクトするための共通かつ基本的な手法であるプロンプトを用いることを提案する。
高度なプロンプト技術を用いて設計された適切な効率的なプロンプト構造を持つシステムプロンプトのみを用いることで、LLMはトレーニングセッションや基本設計へのアクセスを必要とせずに製造することができる。
論文 参考訳(メタデータ) (2025-11-06T22:27:39Z) - MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - Large Language Models for Code Generation: A Comprehensive Survey of Challenges, Techniques, Evaluation, and Applications [0.9105696129628794]
大規模言語モデル(LLM)は多くの分野においてその顕著な能力を示している。
この調査は、LLMがユーザに対して、技術的背景に関係なく、ヒューマン言語を使用して実行可能なコードを自動的に生成する方法に焦点を当てている。
論文 参考訳(メタデータ) (2025-03-03T07:17:30Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Copilot Evaluation Harness: Evaluating LLM-Guided Software Programming [12.355284125578342]
大規模言語モデル(LLM)は、現代のソフトウェア開発の焦点となっている。
LLMは、インテリジェントでチャット駆動のプログラミングアシスタントとして機能することで、開発者の生産性を大幅に向上する可能性がある。
しかし、それぞれのシステムは、最高のパフォーマンスを確保するために、LLMをそのワークスペースに向ける必要がある。
論文 参考訳(メタデータ) (2024-02-22T03:51:34Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z) - A Review of Repository Level Prompting for LLMs [0.0]
大規模言語モデル(LLM)は、HumanEvalベンチマークで94.6%の解決率を達成するなど、顕著な成功を収めている。
GitHub CopilotやTab Nineといったリポジトリレベルのインラインコード補完ツールの商用化が進んでいる。
本稿では,個々のコーディング問題からリポジトリスケールソリューションへの移行について述べる。
論文 参考訳(メタデータ) (2023-12-15T00:34:52Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。