論文の概要: AnCoder: Anchored Code Generation via Discrete Diffusion Models
- arxiv url: http://arxiv.org/abs/2602.17688v1
- Date: Thu, 05 Feb 2026 22:46:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.523835
- Title: AnCoder: Anchored Code Generation via Discrete Diffusion Models
- Title(参考訳): AnCoder:離散拡散モデルによるアンコールコード生成
- Authors: Anton Xue, Litu Rout, Constantine Caramanis, Sanjay Shakkottai,
- Abstract要約: 拡散言語モデルは、自動回帰コード生成の魅力的な代替手段を提供する。
AnchorTreeは、コードにネイティブな構造化された階層的な事前処理を使って拡散プロセスをアンロックするフレームワークです。
構造的に固定された拡散が高品質なコード生成にパラメータ効率の高いパスを提供することを示すモデルのファミリであるAnCoderを使って、このフレームワークを検証する。
- 参考スコア(独自算出の注目度): 36.226700922319075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion language models offer a compelling alternative to autoregressive code generation, enabling global planning and iterative refinement of complex program logic. However, existing approaches fail to respect the rigid structure of programming languages and, as a result, often produce broken programs that fail to execute. To address this, we introduce AnchorTree, a framework that explicitly anchors the diffusion process using structured, hierarchical priors native to code. Specifically, AnchorTree uses the abstract syntax tree to prioritize resolving syntactically and semantically salient tokens, such as keywords (e.g., if, while) and identifiers (e.g., variable names), thereby establishing a structural scaffold that guides the remaining generation. We validate this framework via AnCoder, a family of models showing that structurally anchored diffusion offers a parameter-efficient path to high-quality code generation.
- Abstract(参考訳): 拡散言語モデルは、自動回帰コード生成の魅力的な代替手段を提供し、グローバルな計画と複雑なプログラムロジックの反復的洗練を可能にする。
しかし、既存のアプローチはプログラミング言語の厳格な構造を尊重せず、結果として、実行に失敗する壊れたプログラムをしばしば生成する。
これを解決するために、AnchorTreeというフレームワークを紹介します。
具体的には、AnchorTreeは抽象構文木を使用して、キーワード(例: if, while)や識別子(例: variable name)などの構文的かつ意味論的に健全なトークンの解決を優先し、残りの世代を導く構造的な足場を確立する。
構造的に固定された拡散が高品質なコード生成にパラメータ効率の高いパスを提供することを示すモデルのファミリであるAnCoderを使って、このフレームワークを検証する。
関連論文リスト
- Modular Layout Synthesis (MLS): Front-end Code via Structure Normalization and Constrained Generation [18.154715745625328]
フロントエンドエンジニアリングの自動化は、開発サイクルを大幅に削減し、手動によるコーディングオーバーヘッドを最小化する。
現在のソリューションは、ReactやVue、Angularといった現代的なエコシステムをサポートしない、モノリシックなスクリプトを生成することが多い。
本稿では,視覚的理解と構造正規化を融合した階層型フレームワークであるMLSを紹介する。
MLSは既存のベースラインを大幅に上回り、コードの再利用性と複数のフレームワーク間の構造的整合性を確保する。
論文 参考訳(メタデータ) (2025-12-22T03:24:11Z) - Correctness-Guaranteed Code Generation via Constrained Decoding [11.531496728670746]
本稿では,意味論的に正しいプログラムを生成するための制約付き実行時復号アルゴリズムを提案する。
提案手法は,任意の所定のスクリプティングAPIに従って,意味的に正しいプログラムを生成することができることを示す。
さらに、慎重に設計することで、我々のセマンティック保証が正当性にまで拡張され、ローグライクなビデオゲームにゲームメカニクスを発生させることで検証されることを示す。
論文 参考訳(メタデータ) (2025-08-20T20:48:18Z) - TreeDiff: AST-Guided Code Generation with Diffusion LLMs [27.111814602726227]
本稿では,抽象構文木(AST)の構造的先行を記述プロセスに組み込んだ構文対応拡散フレームワークを提案する。
その結果,構文認識の破損は構文的正当性,再構成精度,不明なコードパターンへの一般化を著しく改善することが示された。
論文 参考訳(メタデータ) (2025-08-02T19:46:09Z) - Efficient Guided Generation for Large Language Models [0.21485350418225244]
本稿では, 有限状態マシンの状態間の遷移の観点から, ニューラルテキスト生成の問題を構成的に再構成する方法を示す。
このフレームワークは、正規表現と文脈自由文法でテキスト生成を導くための効率的なアプローチをもたらす。
論文 参考訳(メタデータ) (2023-07-19T01:14:49Z) - Structured Dialogue Discourse Parsing [79.37200787463917]
談話解析は、多人数会話の内部構造を明らかにすることを目的としている。
本稿では,符号化と復号化という2つの観点から,従来の作業を改善する原理的手法を提案する。
実験の結果,本手法は,STACでは2.3,Mollweniでは1.5,先行モデルでは2.3を上回った。
論文 参考訳(メタデータ) (2023-06-26T22:51:01Z) - Outline, Then Details: Syntactically Guided Coarse-To-Fine Code
Generation [61.50286000143233]
ChainCoderは、Pythonコードを段階的に生成するプログラム合成言語モデルである。
自然言語記述と構文的に整合したI/Oデータサンプルを共同で符号化するために、カスタマイズされたトランスフォーマーアーキテクチャを利用する。
論文 参考訳(メタデータ) (2023-04-28T01:47:09Z) - Incorporating Constituent Syntax for Coreference Resolution [50.71868417008133]
本稿では,構成構文構造をグラフベースで組み込む手法を提案する。
また、高次近傍情報を利用して構成木に富んだ構造をエンコードすることも検討する。
on the English and Chinese parts of OntoNotes 5.0 benchmark shows that our proposed model beats a strong baseline or a new-of-the-art performance。
論文 参考訳(メタデータ) (2022-02-22T07:40:42Z) - Contrastive Learning for Source Code with Structural and Functional
Properties [66.10710134948478]
本稿では,ソースコードの特徴に基づいて事前学習に焦点を当てた,新たな自己教師型モデルBOOSTを提案する。
私たちは、機能的に等価なコードを生成する自動化された構造誘導型コード変換アルゴリズムを採用しています。
私たちは、対照的な学習目標を通じて、機能的に等価なコードをより近く、異なるコードに近づける方法で、モデルをトレーニングします。
論文 参考訳(メタデータ) (2021-10-08T02:56:43Z) - GraphCodeBERT: Pre-training Code Representations with Data Flow [97.00641522327699]
本稿では,コード固有の構造を考慮したプログラミング言語の事前学習モデルであるGraphCodeBERTを提案する。
これは変数間の"where-the-value-comes-from"の関係をエンコードするコードのセマンティックレベルの構造です。
コード検索,クローン検出,コード翻訳,コード改良の4つのタスクにおいて,本モデルを評価する。
論文 参考訳(メタデータ) (2020-09-17T15:25:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。