論文の概要: CodeChemist: Functional Knowledge Transfer for Low-Resource Code Generation via Test-Time Scaling
- arxiv url: http://arxiv.org/abs/2510.00501v1
- Date: Wed, 01 Oct 2025 04:33:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.37882
- Title: CodeChemist: Functional Knowledge Transfer for Low-Resource Code Generation via Test-Time Scaling
- Title(参考訳): CodeChemist: テスト時間スケーリングによる低リソースコード生成のための機能的知識伝達
- Authors: Kaixin Wang, Tianlin Li, Xiaoyu Zhang, Aishan Liu, Xianglong Liu, Ziqi Liu, Zhiqiang Zhang, Jun Zhou, and Bin Shi,
- Abstract要約: 本稿では,高リソースから低リソースPLへの機能的知識伝達を可能にする,テスト時間スケーリングのフレームワークであるCodeChemistを紹介する。
実験の結果,CodeChemistは既存のテストタイムスケーリング手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 63.08126845138046
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Code Large Language Models (CodeLLMs) are increasingly used in code generation tasks across a wide range of applications. However, their performance is often inconsistent across different programming languages (PLs), with low-resource PLs suffering the most due to limited training data. In this paper, we present CodeChemist, a novel and efficient framework for test-time scaling that enables functional knowledge transfer from high-resource to low-resource PLs using generated test cases. CodeChemist first generates and executes code in high-resource PLs to create test cases that encapsulate functional knowledge. It then uses multi-temperature hedged sampling to generate code snippets in the low-resource PL and selects the best one based on the pass rate of the test cases. Our extensive experiments show that CodeChemist outperforms existing test-time scaling approaches, boosting the performance of code generation for low-resource PLs without requiring any model retraining.
- Abstract(参考訳): Code Large Language Models (CodeLLMs) は、広範囲のアプリケーションでコード生成タスクに使われている。
しかしながら、それらの性能は異なるプログラミング言語(PL)間で矛盾しがちであり、低リソースのPLは訓練データに制限があるため、最も苦しむ。
本稿では,高リソースから低リソースPLへの機能的知識伝達を実現する,テスト時間スケーリングのための新しい,効率的なフレームワークであるCodeChemistを提案する。
CodeChemistはまず、高リソースのPLでコードを生成して実行し、機能的知識をカプセル化したテストケースを生成する。
次に、マルチ温度のヘッジドサンプリングを使用して、低リソースのPLでコードスニペットを生成し、テストケースのパスレートに基づいて最適なものを選択する。
大規模な実験により、CodeChemistは既存のテスト時間スケーリングのアプローチよりも優れており、モデルの再トレーニングを必要とせずに、低リソースPL向けのコード生成のパフォーマンスが向上していることがわかった。
関連論文リスト
- Alignment with Fill-In-the-Middle for Enhancing Code Generation [56.791415642365415]
コードスニペットを小さな粒度のブロックに分割し,同じテストケースからより多様なDPOペアを生成する手法を提案する。
提案手法は,HumanEval (+), MBPP (+), APPS, LiveCodeBench, BigCodeBenchといったベンチマークデータセットの実験によって検証された,コード生成タスクの大幅な改善を示す。
論文 参考訳(メタデータ) (2025-08-27T03:15:53Z) - Paper2Code: Automating Code Generation from Scientific Papers in Machine Learning [57.09163579304332]
機械学習論文を機能コードリポジトリに変換するフレームワークであるPaperCoderを紹介した。
PaperCoderは3つの段階で動作する。計画、図によるシステムアーキテクチャの設計、ファイル依存の特定、構成ファイルの生成である。
次に、モデルベースおよび人的評価の両方に基づいて、機械学習論文からコード実装を生成するPaperCoderを評価する。
論文 参考訳(メタデータ) (2025-04-24T01:57:01Z) - GenX: Mastering Code and Test Generation with Execution Feedback [7.225594526057816]
本稿では,コード生成モデルとテスト生成モデルを同時にトレーニングする新しい手法を提案する。
テストデータとコードデータの増大のための2つの戦略と、コードとテストランキングのための新しいスコアリング機能を導入します。
その結果、我々のモデルは、テストケースやコードソリューションの数の増加で反復的にトレーニングされた場合、元のデータセットでトレーニングされたモデルよりも優れています。
論文 参考訳(メタデータ) (2024-12-18T03:18:21Z) - SWT-Bench: Testing and Validating Real-World Bug-Fixes with Code Agents [10.730852617039451]
ユーザ問題をテストケースに形式化するLLMベースのコードエージェントについて検討する。
我々は人気のあるGitHubリポジトリに基づいた新しいベンチマークを提案し、現実世界の問題、地味なバグフィックス、ゴールデンテストを含む。
コード修復用に設計されたコードエージェントは,テスト生成用に設計されたシステムの性能を上回っている。
論文 参考訳(メタデータ) (2024-06-18T14:54:37Z) - RLTF: Reinforcement Learning from Unit Test Feedback [17.35361167578498]
Reinforcement Learning from Unit Test Feedback(リンク)は、新しいオンラインRLフレームワークである。
提案手法は,訓練中にリアルタイムにデータを生成し,高精度なフィードバック信号を用いて高品質なコードを生成する。
論文 参考訳(メタデータ) (2023-07-10T05:18:18Z) - Towards Efficient Fine-tuning of Pre-trained Code Models: An
Experimental Study and Beyond [52.656743602538825]
微調整された事前訓練されたコードモデルは、大きな計算コストを発生させる。
我々は、レイヤーワイドで事前訓練された表現と、微調整中に符号化されたコード知識に何が起こるのかを実験的に検討する。
本稿では,レイヤ凍結により事前学習したコードモデルを効率的に微調整するTellyを提案する。
論文 参考訳(メタデータ) (2023-04-11T13:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。