論文の概要: IntentCoding: Amplifying User Intent in Code Generation
- arxiv url: http://arxiv.org/abs/2602.00066v1
- Date: Tue, 20 Jan 2026 13:34:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.307623
- Title: IntentCoding: Amplifying User Intent in Code Generation
- Title(参考訳): IntentCoding: コード生成におけるユーザインテントの増幅
- Authors: Zheng Fang, Yihong Dong, Lili Mou, Dongming Jin, Zhi Jin, Ge Li,
- Abstract要約: 大規模言語モデル(LLM)は、コード生成において強力な能力を示しているが、複数の制約を伴うきめ細かいユーザ意図への固執は、依然として大きな課題である。
Intent-Amplified Code Generation (IntentCoding, IntentCoding)を提案する。
IntentCodingは、インテントをマスキングしてユーザインテントの影響を捉え、生成時のユーザインテントの効果を増幅するために、多強度アンサンブル機構を適用する。
- 参考スコア(独自算出の注目度): 66.86062682889101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have shown strong capabilities in code generation, but their adherence to fine-grained user intent with multiple constraints remains a significant challenge. Our empirical analysis reveals two key observations: 1) Model performance deteriorates quickly as the number of constraints in the user intent increases, and 2) While user intent does influence the model's logits, such an influence may not be strong enough to effectively steer the decoding process. To this end, we propose Intent-Amplified Code Generation (IntentCoding), a novel decoding strategy that enhances an LLM's ability to follow user intent. IntentCoding captures the influence of user intent by masking out the intent, and applies a multi-strength ensemble mechanism to amplify the effect of user intent during generation. IntentCoding is model-agnostic, requires no additional training, and integrates seamlessly with existing decoding procedures. To enable systematic evaluation, we also construct CodeConstraints, a benchmark dataset specifically designed to test user intent compliance under varying numbers of constraints. Experiments on our constructed Constraints, as well as popular IFEvalCode, HumanEval and LiveCodeBench datasets, show that our IntentCoding model significantly improves both constraint satisfaction and functional correctness compared to standard decoding approaches. IntentCoding achieves up to 71.0% relative improvement on CodeConstraints, achieves up to 67.3% relative improvement on IFEvalCode and achieves up to 29.3% relative improvement in pass@1 on HumanEval and LiveCodeBench compared with greedy decoding.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コード生成において強力な能力を示しているが、複数の制約を伴うきめ細かいユーザ意図への固執は、依然として大きな課題である。
私たちの経験分析では、2つの重要な観察結果が明らかになりました。
1) ユーザ意図の制約数の増加に伴い,モデルの性能は急速に低下する。
2) ユーザの意図はモデルのロジットに影響を与えるが,そのような影響はデコードプロセスを効果的に操るには不十分である。
この目的のために,LLMのユーザ意図に従う能力を高める新しい復号法であるIntent-Amplified Code Generation (IntentCoding)を提案する。
IntentCodingは、インテントをマスキングしてユーザインテントの影響を捉え、生成時のユーザインテントの効果を増幅するために、多強度アンサンブル機構を適用する。
IntentCodingはモデルに依存しず、追加のトレーニングを必要とせず、既存のデコード手順とシームレスに統合される。
体系的な評価を可能にするために,さまざまな制約の下でユーザ意図のコンプライアンスをテストするために設計されたベンチマークデータセットであるCodeConstraintsを構築した。
構築した制約と、人気のあるIFEvalCode、HumanEval、LiveCodeBenchデータセットの実験は、私たちのIntentCodingモデルは、標準的なデコーディングアプローチと比較して、制約満足度と機能的正確性の両方を著しく改善することを示している。
IntentCodingは、CodeConstraintsで最大71.0%の相対的な改善を達成し、IFEvalCodeで最大67.3%の相対的な改善を達成し、HumanEvalとLiveCodeBenchで最大29.3%の相対的な改善を達成している。
関連論文リスト
- Overcoming Joint Intractability with Lossless Hierarchical Speculative Decoding [58.92526489742584]
我々は無益な無益な提案をする。
承認されたトークンの数を大幅に増加させる検証方法。
HSDは様々なモデルファミリやベンチマークの受け入れ率に一貫した改善をもたらすことを示す。
論文 参考訳(メタデータ) (2026-01-09T11:10:29Z) - Readability-Robust Code Summarization via Meta Curriculum Learning [53.44612630063336]
現実の世界では、コードが貧弱な構造や難読化され、モデルのパフォーマンスが著しく低下することが多い。
本稿では,可読性の低いコードに対するコード要約の堅牢性を向上する,新しい微調整手法であるRoFTCodeSumを提案する。
論文 参考訳(メタデータ) (2026-01-09T02:38:24Z) - AdapTrack: Constrained Decoding without Distorting LLM's Output Intent [53.75852524070165]
言語モデルに基づくコード生成と補完ツールは、時には必要な制約を満たさないコードを生成することがある。
制約に固執するコードを生成するために、制約付き復号法が開発された。
AdapTrackは、モデルの出力インテントを歪めるのを避けるため、制約に準拠するだけでなく、モデルの出力インテントと意味的に一致した結果を生成する。
論文 参考訳(メタデータ) (2025-10-20T10:11:34Z) - OFMU: Optimization-Driven Framework for Machine Unlearning [5.100622189286672]
大規模言語モデルは、ユーザ要求、著作権のある資料、時代遅れの情報など、特定の知識を解放する能力を必要としている。
我々は,保留期間を保ちながら忘れを明示的に優先順位付けするペナルティベースの二段階最適化フレームワークOFMUを提案する。
OFMUは既存のアンラーニング手法を有効性と有効性の両方で一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2025-09-26T15:31:32Z) - Towards Better Correctness and Efficiency in Code Generation [47.06216040246783]
本稿では,新しい性能報酬によって導かれる効率指向の強化学習フレームワークを提案する。
オンライン探索は、高精度ベースラインから始める際に最も効果的である。
実験では、コード精度を10.18%向上し、実行効率を7Bモデルで7.75%向上させる手法の有効性が示されている。
論文 参考訳(メタデータ) (2025-08-24T16:47:19Z) - Towards User Guided Actionable Recourse [5.669106489320257]
Actionable Recourse (AR)は、ユーザの行動可能な機能に対するコスト効率の高い変更を推奨し、望ましい結果を得るのに役立つ。
ユーザ優先行動規範(UP-AR)を特定するための勾配に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-05T18:06:09Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Intent Contrastive Learning for Sequential Recommendation [86.54439927038968]
ユーザの意図を表現するために潜伏変数を導入し,クラスタリングにより潜伏変数の分布関数を学習する。
我々は,学習意図を対照的なSSLによってSRモデルに活用し,シーケンスのビューとそれに対応するインテントとの一致を最大化することを提案する。
4つの実世界のデータセットで実施された実験は、提案した学習パラダイムの優位性を示している。
論文 参考訳(メタデータ) (2022-02-05T09:24:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。