論文の概要: Learning to Guarantee Type Correctness in Code Generation through Type-Guided Program Synthesis
- arxiv url: http://arxiv.org/abs/2510.10216v1
- Date: Sat, 11 Oct 2025 13:43:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.847149
- Title: Learning to Guarantee Type Correctness in Code Generation through Type-Guided Program Synthesis
- Title(参考訳): 型誘導型プログラム合成によるコード生成における型精度の保証
- Authors: Zhechong Huang, Zhao Zhang, Ruyi Ji, Tingxuan Xia, Qihao Zhu, Qinxiang Cao, Zeyu Sun, Yingfei Xiong,
- Abstract要約: TyFlowは、型システムを学ぶためのモデルを導くために、コード生成内で型推論を内部化する新しいシステムである。
型システム学習の複雑さを表現そのものにオフロードすることで、モデルは計算資源をより高いレベルのプログラムセマンティクスにリダイレクトすることができる。
- 参考スコア(独自算出の注目度): 15.252570813367866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Language models have shown remarkable proficiency in code generation; nevertheless, ensuring type correctness remains a challenge. Although traditional methods, such as constrained decoding, alleviate this problem by externally rejecting untypable code, the model itself does not effectively learn type reasoning internally, which ultimately limits its overall performance. This paper introduces TyFlow, a novel system that internalizes type reasoning within code generation to guide the model to learn the type system. The core of our approach is a novel type-guided program synthesis system that maintains an isomorphism between type derivation trees and synthesis derivation trees, enabling a new code representation based on synthesis decision sequences rather than traditional text-based token sequences. By offloading the complexity of type system learning to the representation itself, models can redirect their computational resources toward higher-level program semantics. Our evaluation shows that TyFlow not only eliminates type errors but also significantly improves functional correctness, highlighting the importance of aligning LMs with type systems internally.
- Abstract(参考訳): 言語モデルは、コード生成において顕著な習熟度を示しています。
制約付き復号法のような従来の手法は、外部から不正なコードを拒絶することでこの問題を軽減するが、モデル自体が内部で型推論を効果的に学ばず、最終的には全体的なパフォーマンスを制限している。
本稿では,コード生成における型推論を内部化して,モデルに型システムを学ぶための新たなシステムであるTyFlowを紹介する。
本手法の核となるのは、型導出木と合成導出木との同型性を維持する新しい型誘導型プログラム合成システムであり、従来のテキストベースのトークンシーケンスではなく、合成決定シーケンスに基づく新しいコード表現を可能にする。
型システム学習の複雑さを表現そのものにオフロードすることで、モデルは計算資源をより高いレベルのプログラムセマンティクスにリダイレクトすることができる。
評価の結果,TyFlowは型エラーを除去するだけでなく,関数の正確性も大幅に向上し,型システムと型システムとの整合性の重要性を強調した。
関連論文リスト
- Disentangling Neural Disjunctive Normal Form Models [46.04248617689743]
ニューラル・ディジャンクティブ・ノーマル・フォーム(英語版)(DNF)に基づくモデルは、ニューラル・シンボリック・ラーニングに対する強力で解釈可能なアプローチである。
ここでは、翻訳中の性能劣化の一部は、ネットワークの重みの形で表現される学習知識を乱すことができないためであることを示す。
ネストしたルールを小さな独立ノードにエンコードするノードを分割することで、モデルの性能をよりよく保存することができる。
論文 参考訳(メタデータ) (2025-07-14T17:59:33Z) - Type-Constrained Code Generation with Language Models [51.03439021895432]
本稿では,型システムを利用してコード生成を誘導する型制約デコード手法を提案する。
そこで本研究では,新しい接頭辞オートマトンと,在来型を探索する手法を開発し,LLM生成コードに適切な型付けを強制するための健全なアプローチを構築した。
提案手法は,コード合成,翻訳,修復作業において,コンパイルエラーを半分以上削減し,機能的正しさを著しく向上させる。
論文 参考訳(メタデータ) (2025-04-12T15:03:00Z) - OntoType: Ontology-Guided and Pre-Trained Language Model Assisted Fine-Grained Entity Typing [25.516304052884397]
きめ細かいエンティティタイピング(FET)は、コンテキストに敏感できめ細かいセマンティックタイプでエンティティをテキストに割り当てる。
OntoTypeは、粗いものから細いものまで、型オントロジ構造に従い、複数のPLMをアンサンブルすることで、型候補のセットを生成する。
Ontonotes、FIGER、NYTデータセットに関する我々の実験は、我々の手法が最先端のゼロショットの微細なエンティティタイピング方法よりも優れていることを示した。
論文 参考訳(メタデータ) (2023-05-21T00:32:37Z) - Generating Sequences by Learning to Self-Correct [64.0249217590888]
自己補正(Self-Correction)は、不完全な世代を反復的に修正する独立した修正器から不完全なベースジェネレータを分離する。
本稿では,3つの多種多様なタスクにおいて,自己補正がベースジェネレータを改善することを示す。
論文 参考訳(メタデータ) (2022-10-31T18:09:51Z) - The Whole Truth and Nothing But the Truth: Faithful and Controllable
Dialogue Response Generation with Dataflow Transduction and Constrained
Decoding [65.34601470417967]
本稿では,ニューラルネットワークモデリングとルールベース生成の強みを組み合わせた対話応答生成のためのハイブリッドアーキテクチャについて述べる。
本実験により, 本システムは, 流布性, 妥当性, 真理性の評価において, ルールベースおよび学習的アプローチの両方に優れることがわかった。
論文 参考訳(メタデータ) (2022-09-16T09:00:49Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Learning to Encode Position for Transformer with Continuous Dynamical
Model [88.69870971415591]
本研究では,トランスフォーマーモデルなどの非リカレントモデルの位置情報をエンコードする新しい学習方法を提案する。
このような力学系による位置指数に沿った符号化結果の進化をモデル化する。
論文 参考訳(メタデータ) (2020-03-13T00:41:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。