論文の概要: EditFlow: Benchmarking and Optimizing Code Edit Recommendation Systems via Reconstruction of Developer Flows
- arxiv url: http://arxiv.org/abs/2602.21697v1
- Date: Wed, 25 Feb 2026 09:02:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.76328
- Title: EditFlow: Benchmarking and Optimizing Code Edit Recommendation Systems via Reconstruction of Developer Flows
- Title(参考訳): EditFlow: 開発者フローの再構築によるコード編集推奨システムのベンチマークと最適化
- Authors: Chenyan Liu, Yun Lin, Jiaxin Chang, Jiawei Liu, Binhang Qi, Bo Jiang, Zhiyong Huang, Jin Song Dong,
- Abstract要約: コード編集のための大規模言語モデル(LLM)は目覚ましい進歩を遂げているが、最近の実証研究により、技術的正確性と開発者の生産性の根本的な切り離しが明らかになった。
本稿では、開発者の編集フローの再構築を通じて、後続のコード編集レコメンデーションシステムのベンチマークと最適化を行うEditFlowを提案する。
- 参考スコア(独自算出の注目度): 22.596319978373455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) for code editing have achieved remarkable progress, yet recent empirical studies reveal a fundamental disconnect between technical accuracy and developer productivity. Despite their strong benchmark performance, developers complete tasks 19% slower when using AI assistance, with over 68.81% of recommendations disrupting their mental flow. This misalignment stems from the use of static commit snapshots that lack temporal information, causing models to optimize for end results rather than the incremental, context-sensitive steps that align with developers' natural reasoning process. To bridge this gap, we present EditFlow, which benchmarks and optimizes subsequent code edit recommendation systems through the reconstruction of developer editing flows. EditFlow addresses three key challenges. First, collecting edit-order data that reflects developers' flow is inherently difficult: manual annotation introduces prohibitive overhead, while development logs capture only single trajectories instead of all plausible editing flows. Second, benchmarking recommendation performance against developers' ongoing editing flow requires a digital-twin-like simulation that can faithfully simulate the editing process. Third, existing heterogeneous systems vary drastically in scale and architecture, posing challenges for developing a unified optimization strategy that endows all models with mental-flow awareness regardless of design or capability. ......
- Abstract(参考訳): コード編集のための大規模言語モデル(LLM)は目覚ましい進歩を遂げているが、最近の実証研究により、技術的正確性と開発者の生産性の根本的な切り離しが明らかになった。
強いベンチマーク性能にもかかわらず、AIアシストを使用する場合、開発者はタスクを19%遅く完了し、68.81%以上の推奨がメンタルフローを破壊している。
このミスアライメントは、時間的な情報を持たない静的コミットスナップショットを使用することによって、開発者の自然な推論プロセスと整合するインクリメンタルでコンテキストに敏感なステップではなく、モデルが最終結果のために最適化される原因となっている。
このギャップを埋めるために、開発者編集フローの再構築を通じて、後続のコード編集レコメンデーションシステムのベンチマークと最適化を行うEditFlowを提案する。
EditFlowは3つの課題に対処する。
まず、開発者のフローを反映した編集順序データの収集が本質的に困難である。手動のアノテーションは禁止的なオーバーヘッドを導入し、開発ログは、すべての有効な編集フローではなく、単一のトラジェクトリのみをキャプチャする。
第二に、開発者の現在進行中の編集フローに対する推奨性能のベンチマークには、編集プロセスを忠実にシミュレートできるデジタルツインのようなシミュレーションが必要である。
第三に、既存の異種システムは、規模やアーキテクチャにおいて大きく異なるため、設計や能力に関わらず、すべてのモデルにメンタルフローを意識させる統一最適化戦略を開発する上での課題となっている。
はぁ...。
関連論文リスト
- Fine-tuning Done Right in Model Editing [83.79661791576103]
大規模な言語モデルを適応するための基礎的な手法であるファインチューニングは、長い間モデル編集には有効ではないと考えられてきた。
ミニバッチ最適化により、標準的な幅優先パイプライン(エポックベース)に微調整を復元する。
我々は、復元された微調整フレームワーク上に構築された、シンプルで効果的なローカライズド編集手法であるLocFT-BFを導出する。
論文 参考訳(メタデータ) (2025-09-26T08:53:13Z) - ContextFlow: Training-Free Video Object Editing via Adaptive Context Enrichment [13.125899660835813]
トレーニング不要のビデオオブジェクト編集は、オブジェクト挿入、スワップ、削除を含む、正確なオブジェクトレベルの操作を実現することを目的としている。
既存の方法は、一階解法による不正確な逆転と、粗い「堅い」特徴置換によって引き起こされる文脈的衝突の2つの主要な制限に悩まされている。
本稿では,DiTベースのビデオオブジェクト編集のための新しいトレーニングフリーフレームワークであるContextFlowを紹介する。
論文 参考訳(メタデータ) (2025-09-22T14:13:31Z) - EfficientEdit: Accelerating Code Editing via Edit-Oriented Speculative Decoding [12.558682788313371]
大規模言語モデル(LLM)は、コード編集において顕著な能力を示し、ソフトウェア開発の生産性を大幅に向上させた。
提案するEfficientEditは,投機的復号化に基づく2つのキー機構により,LLMベースのコード編集効率を向上させる手法である。
実験の結果、EfficientEditは10.38$times$と13.09$times$speedupを標準の自己回帰デコードと比較して達成できることがわかった。
論文 参考訳(メタデータ) (2025-06-03T12:01:20Z) - In-Context Edit: Enabling Instructional Image Editing with In-Context Generation in Large Scale Diffusion Transformer [42.44787022143543]
ICEditはテキスト内編集のパラダイムであり、品質改善のためのパラメータ効率の最小限の微調整を行う。
トレーニングデータのわずか0.1%とトレーニング可能なパラメータ1%で、最先端の編集性能を実現している。
論文 参考訳(メタデータ) (2025-04-29T12:14:47Z) - LADs: Leveraging LLMs for AI-Driven DevOps [3.240228178267042]
LADは、どの条件の下で最適化が機能するかを詳細に分析することで、構成最適化の原則化されたアプローチである。
Retrieval-Augmented Generation、Few-Shot Learning、Chain-of-Thought、Feedback-Based Prompt Chainingを活用することで、LADは正確な構成を生成し、デプロイメント障害から反復的に洗練されたシステム設定を学ぶ。
我々の発見は、パフォーマンス、コスト、スケーラビリティのトレードオフに関する重要な洞察を明らかにし、実践者が異なるデプロイメントシナリオに対して適切な戦略を決定するのに役立つ。
論文 参考訳(メタデータ) (2025-02-28T08:12:08Z) - ScoreFlow: Mastering LLM Agent Workflows via Score-based Preference Optimization [51.280919773837645]
エージェントワークフロー最適化のための高性能フレームワークであるScoreFlowを開発した。
ScoreFlowは、量的フィードバックを考慮に入れた直接選好最適化手法の新たな変種であるScore-DPOを組み込んでいる。
質問応答、コーディング、数学的推論を通じて、既存のベースラインよりも8.2%改善されている。
論文 参考訳(メタデータ) (2025-02-06T18:47:49Z) - Taming Rectified Flow for Inversion and Editing [57.3742655030493]
FLUXやOpenSoraのような定流拡散変換器は、画像生成やビデオ生成の分野で優れた性能を発揮している。
その堅牢な生成能力にもかかわらず、これらのモデルは不正確さに悩まされることが多い。
本研究では,修正流の逆流過程における誤差を軽減し,インバージョン精度を効果的に向上する訓練自由サンプリング器RF-rを提案する。
論文 参考訳(メタデータ) (2024-11-07T14:29:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。