論文の概要: An Efficient and Adaptive Next Edit Suggestion Framework with Zero Human Instructions in IDEs
- arxiv url: http://arxiv.org/abs/2508.02473v1
- Date: Mon, 04 Aug 2025 14:37:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 20:32:48.733696
- Title: An Efficient and Adaptive Next Edit Suggestion Framework with Zero Human Instructions in IDEs
- Title(参考訳): IDEにおけるゼロヒューマンインストラクションを備えた効率的で適応的な次の編集提案フレームワーク
- Authors: Xinfang Chen, Siyang Xiao, Xianying Zhu, Junhong Xie, Ming Liang, Dajun Chen, Wei Jiang, Yong Li, Peng Di,
- Abstract要約: 我々は、命令不要で低レイテンシ体験を提供するコード編集フレームワークNES(Next Edition)を提案する。
デュアルモデルアーキテクチャに基づいて構築され、高品質なSFTとDAPOデータセットでトレーニングされたNESは、開発者の意図を理解することによって生産性を高める。
オープンソースのSFTおよびDAPOデータセットは、オープンソースのCodeLLMの性能を高めるために実証されている。
- 参考スコア(独自算出の注目度): 11.041668774652145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code editing, including modifying, refactoring, and maintaining existing code, is the most frequent task in software development and has garnered significant attention from AI-powered tools. However, existing solutions that translate explicit natural language instructions into code edits face critical limitations, such as heavy reliance on human instruction input and high latency, which hinder their effective integration into a developer's workflow. We observe that developers' habitual behaviors and coding objectives are often reflected in their historical editing patterns, making this data key to addressing existing limitations. To leverage these insights, we propose NES (Next Edit Suggestion), an LLM-driven code editing framework that delivers an instruction-free and low-latency experience. Built on a dual-model architecture and trained with our high-quality SFT and DAPO datasets, NES enhances productivity by understanding developer intent while optimizing inference to minimize latency. NES is a scalable, industry-ready solution with a continuous Tab key interaction workflow, seamlessly adopted by a FinTech company with over 20,000 developers. Evaluations on real-world datasets show NES achieves 75.6% and 81.6% accuracy in two tasks of predicting next edit locations, alongside 91.36% ES and 27.7% EMR for intent-aligned edits, outperforming SOTA models. Our open-sourced SFT and DAPO datasets have been demonstrated to enhance the performance of open-source CodeLLMs. The demonstration of NES is available at https://youtu.be/yGoyYOe6fbY.
- Abstract(参考訳): 既存のコードの変更、リファクタリング、メンテナンスを含むコード編集は、ソフトウェア開発で最も頻繁なタスクであり、AIツールから大きな注目を集めている。
しかし、明示的な自然言語命令をコードに翻訳する既存のソリューションは、人間の命令入力に大きく依存するなど、重要な制限に直面しているため、開発者のワークフローへの効果的な統合を妨げている。
開発者の習慣的行動やコーディングの目的が、しばしば過去の編集パターンに反映されていることを観察し、このデータを既存の制限に対処するための鍵にしている。
これらの知見を生かしたNES(Next Edit Suggestion)を提案する。
デュアルモデルアーキテクチャ上に構築され、高品質なSFTとDAPOデータセットでトレーニングされたNESは、開発者の意図を理解しながら、推論を最適化してレイテンシを最小限にすることで、生産性を向上させる。
NESは、スケーラブルで業界対応のソリューションで、連続的なTabキーインタラクションワークフローを持ち、2万人以上の開発者がいるFinTech企業によってシームレスに採用されている。
実世界のデータセットの評価によると、NESは次の編集場所を予測する2つのタスクにおいて75.6%と81.6%の精度を達成し、意図に沿った編集では91.36%のESと27.7%のEMRを達成し、SOTAモデルを上回っている。
オープンソースのSFTおよびDAPOデータセットは、オープンソースのCodeLLMの性能を高めるために実証されている。
NESのデモはhttps://youtu.be/yGoyYOe6fbYで公開されている。
関連論文リスト
- ACE: Automated Technical Debt Remediation with Validated Large Language Model Refactorings [8.0322025529523]
本稿では、検証された出力を使用してコード改善を自動化するツールであるAugmented Code Engineering (ACE)を紹介する。
ユーザからの初期のフィードバックは、AIが利用できることが、そうでなければほとんど起こらないコードレベルの技術的負債を軽減するのに役立つことを示唆している。
論文 参考訳(メタデータ) (2025-07-04T12:39:27Z) - ORMind: A Cognitive-Inspired End-to-End Reasoning Framework for Operations Research [53.736407871322314]
ORMindは認知にインスパイアされたフレームワークで、反ファクト推論を通じて最適化を強化する。
提案手法は,要求を数学的モデルや実行可能なコードに変換するエンド・ツー・エンドのワークフローを実装し,人間の認識をエミュレートする。
現在はLenovoのAIアシスタントで内部でテストされており、ビジネスとコンシューマの両方の最適化機能を強化する予定である。
論文 参考訳(メタデータ) (2025-06-02T05:11:21Z) - DWIM: Towards Tool-aware Visual Reasoning via Discrepancy-aware Workflow Generation & Instruct-Masking Tuning [57.285435980459205]
構成的視覚的推論アプローチは、エンド・ツー・エンドのVR手法よりも効果的な戦略として期待されている。
DWIM: ツールの使用状況を評価し, より訓練に有効である抽出を行う, 離散性を考慮したトレーニング生成手法を提案する。
Instruct-Masking fine-tuning — モデルに効果的なアクションをクローンすることのみをガイドし、より実用的なソリューションの生成を可能にする。
論文 参考訳(メタデータ) (2025-03-25T01:57:59Z) - CodeIF: Benchmarking the Instruction-Following Capabilities of Large Language Models for Code Generation [20.013757490442064]
タスク指向の命令に準拠する大規模言語モデル(LLM)の能力を評価するために設計された最初のベンチマークであるCodeIFを紹介する。
CodeIFは関数合成、アルゴリズム命令、コード説明など幅広いタスクを含んでいる。
我々はLLMによる広範囲な実験を行い、これらの課題の要求を満たす上での強みと限界を分析した。
論文 参考訳(メタデータ) (2025-02-26T14:19:49Z) - OpenCoder: The Open Cookbook for Top-Tier Code Large Language Models [76.59316249991657]
コードのための大規模言語モデル(LLM)は、コード生成、推論タスク、エージェントシステムなど、さまざまな領域で必須になっている。
オープンアクセスのコード LLM はプロプライエタリなモデルの性能レベルに近づきつつあるが、高品質なコード LLM は依然として限られている。
トップクラスのコードLLMであるOpenCoderは、主要なモデルに匹敵するパフォーマンスを達成するだけでなく、研究コミュニティの"オープンクックブック"としても機能します。
論文 参考訳(メタデータ) (2024-11-07T17:47:25Z) - SLED: Self Logits Evolution Decoding for Improving Factuality in Large Language Models [34.3296459569307]
大規模言語モデル(LLM)は目覚ましい能力を示しているが、その出力は信頼できないことや、事実的に間違っていることがある。
本稿では,LLMの真性を高める新しいデコードフレームワークであるSelf Logits Evolution Decoding(SLED)を紹介する。
既存の復号法と比較して,SLEDは実写精度を最大20%向上することを示す。
論文 参考訳(メタデータ) (2024-11-01T17:33:34Z) - AIvril: AI-Driven RTL Generation With Verification In-The-Loop [0.7831852829409273]
LLM(Large Language Models)は、複雑な自然言語処理タスクを実行できる計算モデルである。
本稿では,RTL対応LLMの精度と信頼性を高めるためのフレームワークであるAIvrilを紹介する。
論文 参考訳(メタデータ) (2024-09-03T15:07:11Z) - GrACE: Generation using Associated Code Edits [23.643567386291988]
プリトレーニング済みの大規模言語モデル(LLM)に,事前の関連編集の知識を付与する。
LLMの生成能力は、コード変更の多様性と、事前編集時のコード生成の条件付けに役立ちます。
Codex と CodeT5 の2つの有名な LLM を,ゼロショット設定と微調整設定でそれぞれ評価した。
論文 参考訳(メタデータ) (2023-05-23T14:55:44Z) - CodeT5+: Open Code Large Language Models for Code Understanding and
Generation [72.1638273937025]
大きな言語モデル (LLM) は膨大なソースコードで事前訓練されており、コードインテリジェンスにおいて顕著な進歩を遂げている。
CodeT5+は、コンポーネントモジュールを柔軟に組み合わせて、幅広い下流のコードタスクに適合させることができるコードのためのエンコーダ-デコーダLLMのファミリーである。
我々は、ゼロショット、微調整、命令調整を含む20以上のコード関連ベンチマークでCodeT5+を広範囲に評価した。
論文 参考訳(メタデータ) (2023-05-13T14:23:07Z) - Learning Performance-Improving Code Edits [107.21538852090208]
本稿では,大規模言語モデル(LLM)を高レベルプログラム最適化に適用するためのフレームワークを提案する。
まず、競争力のある77,000以上のC++プログラミングサブミッションペアによる、人間のプログラマによるパフォーマンス改善編集のデータセットをキュレートする。
提案手法は,検索をベースとした少数ショットプロンプトとチェーン・オブ・シンクレットを提案し,その微調整には,自己再生に基づく性能条件付き生成と合成データ拡張が含まれる。
論文 参考訳(メタデータ) (2023-02-15T18:59:21Z) - Multimodal Adaptive Distillation for Leveraging Unimodal Encoders for
Vision-Language Tasks [118.49566068398642]
視覚言語(VL)タスクのためのクロスモーダルエンコーダは、しばしば注意深く計算された視覚言語データセットで事前訓練される。
一様エンコーダは、コスト抑制の少ない単純なアノテーションで事前訓練され、数十億から数十億のスケールを達成する。
我々は,事前学習したエンコーダから多モードVLエンコーダへの有用な知識を適応的に蒸留するマルチモーダル適応蒸留(MAD)を提案する。
論文 参考訳(メタデータ) (2022-04-22T04:41:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。