論文の概要: BatCoder: Self-Supervised Bidirectional Code-Documentation Learning via Back-Translation
- arxiv url: http://arxiv.org/abs/2602.02554v1
- Date: Fri, 30 Jan 2026 11:32:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:14.927829
- Title: BatCoder: Self-Supervised Bidirectional Code-Documentation Learning via Back-Translation
- Title(参考訳): BatCoder: バックトランスレーションによる双方向コードドキュメンテーション学習
- Authors: Jingwen Xu, Yiyang Lu, Zisu Huang, Changze Lv, Xiaohua Wang, Shizheng Li, Zhibo Xu, Zhengkang Guo, Zhengyuan Wang, Muzhao Tian, Xuanjing Huang, Xiaoqing Zheng,
- Abstract要約: BatCoderはコード生成とドキュメント生産を共同で最適化するために設計された自己教師付き強化学習フレームワークである。
ドキュメンテーションはまずコードから生成され、それから生成されたドキュメンテーションを使用して元のコードを再構築する。
7BモデルでHumanEvalとMBPPを評価し、BatCoderは83.5%と81.0%のpass@1を達成した。
- 参考スコア(独自算出の注目度): 37.23116269029009
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training LLMs for code-related tasks typically depends on high-quality code-documentation pairs, which are costly to curate and often scarce for niche programming languages. We introduce BatCoder, a self-supervised reinforcement learning framework designed to jointly optimize code generation and documentation production. BatCoder employs a back-translation strategy: a documentation is first generated from code, and then the generated documentation is used to reconstruct the original code. The semantic similarity between the original and reconstructed code serves as an implicit reward, enabling reinforcement learning to improve the model's performance both in generating code from documentation and vice versa. This approach allows models to be trained using only code, substantially increasing the available training examples. Evaluated on HumanEval and MBPP with a 7B model, BatCoder achieved 83.5% and 81.0% pass@1, outperforming strong open-source baselines. Moreover, the framework demonstrates consistent scaling with respect to both training corpus size and model capacity.
- Abstract(参考訳): コード関連のタスクのためのLLMのトレーニングは、典型的には高品質なコード文書ペアに依存します。
コード生成とドキュメンテーション生産を共同で最適化するために設計された、自己教師付き強化学習フレームワークであるBatCoderを紹介した。
BatCoderはバックトランスレーション戦略を採用している。まずドキュメントをコードから生成し、次に生成されたドキュメントを使用して元のコードを再構築する。
オリジナルのコードと再構築されたコードのセマンティックな類似性は暗黙の報酬として機能し、強化学習によって、ドキュメントからコードを生成することと、その逆の両方で、モデルのパフォーマンスを改善することができる。
このアプローチでは、コードのみを使用してモデルをトレーニングすることが可能で、利用可能なトレーニング例を大幅に増やすことができる。
7BモデルでHumanEvalとMBPPを評価し、BatCoderは83.5%と81.0%のpass@1を達成した。
さらに、このフレームワークは、トレーニングコーパスのサイズとモデルキャパシティの両方に関して、一貫したスケーリングを示している。
関連論文リスト
- ReCode: Updating Code API Knowledge with Reinforcement Learning [26.63327165259632]
大規模言語モデル(LLM)は、外部ライブラリAPIの頻繁な更新に適応する際には、優れたコード生成機能を示す。
ReCodeは,APIの変更に対するプログラマの適応を模倣する新しいフレームワークである。
我々の実験は、ReCodeが動的APIシナリオにおけるLLMのコード生成性能を大幅に向上させることを示した。
論文 参考訳(メタデータ) (2025-06-25T14:41:13Z) - Generation-Augmented Query Expansion For Code Retrieval [51.20943646688115]
本稿では,次世代のクエリ拡張フレームワークを提案する。
人間の検索プロセスにインスパイアされた – 検索前に回答をスケッチする。
CodeSearchNetベンチマークで、最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2022-12-20T23:49:37Z) - Soft-Labeled Contrastive Pre-training for Function-level Code
Representation [127.71430696347174]
textbfSoft-labeled contrastive pre-training framework with two positive sample construction method。
大規模コードコーパスにおけるコード間の関連性を考慮すると、ソフトラベル付きコントラスト付き事前学習は、きめ細かいソフトラベルを得ることができる。
SCodeRは、7つのデータセットで4つのコード関連タスクに対して、最先端のパフォーマンスを新たに達成する。
論文 参考訳(メタデータ) (2022-10-18T05:17:37Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z) - CodeRetriever: Unimodal and Bimodal Contrastive Learning [128.06072658302165]
関数レベルのコードセマンティック表現を訓練するために,一様および二様のコントラスト学習を組み合わせたCodeRetrieverモデルを提案する。
ノンモーダルなコントラスト学習のために、文書と関数名に基づいてポジティブなコードペアを構築するためのセマンティックガイド付き手法を設計する。
バイモーダルなコントラスト学習では、コードのドキュメンテーションとインラインコメントを活用して、テキストコードペアを構築します。
論文 参考訳(メタデータ) (2022-01-26T10:54:30Z) - GraphCodeBERT: Pre-training Code Representations with Data Flow [97.00641522327699]
本稿では,コード固有の構造を考慮したプログラミング言語の事前学習モデルであるGraphCodeBERTを提案する。
これは変数間の"where-the-value-comes-from"の関係をエンコードするコードのセマンティックレベルの構造です。
コード検索,クローン検出,コード翻訳,コード改良の4つのタスクにおいて,本モデルを評価する。
論文 参考訳(メタデータ) (2020-09-17T15:25:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。