論文の概要: Paper2Code: Automating Code Generation from Scientific Papers in Machine Learning
- arxiv url: http://arxiv.org/abs/2504.17192v1
- Date: Thu, 24 Apr 2025 01:57:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-25 15:24:05.649189
- Title: Paper2Code: Automating Code Generation from Scientific Papers in Machine Learning
- Title(参考訳): Paper2Code: 機械学習における科学論文からのコード生成の自動化
- Authors: Minju Seo, Jinheon Baek, Seongyun Lee, Sung Ju Hwang,
- Abstract要約: 機械学習論文を機能コードリポジトリに変換するフレームワークであるPaperCoderを紹介した。
PaperCoderは、計画、分析、生成の3段階で動作する。
これは、最近リリースされたPaperBenchベンチマークで一貫して強みを示している。
- 参考スコア(独自算出の注目度): 57.09163579304332
- License:
- Abstract: Despite the rapid growth of machine learning research, corresponding code implementations are often unavailable, making it slow and labor-intensive for researchers to reproduce results and build upon prior work. In the meantime, recent Large Language Models (LLMs) excel at understanding scientific documents and generating high-quality code. Inspired by this, we introduce PaperCoder, a multi-agent LLM framework that transforms machine learning papers into functional code repositories. PaperCoder operates in three stages: planning, where it constructs a high-level roadmap, designs the system architecture with diagrams, identifies file dependencies, and generates configuration files; analysis, which focuses on interpreting implementation-specific details; and generation, where modular, dependency-aware code is produced. Moreover, each phase is instantiated through a set of specialized agents designed to collaborate effectively across the pipeline. We then evaluate PaperCoder on generating code implementations from machine learning papers based on both model-based and human evaluations, specifically from the original paper authors, with author-released repositories as ground truth if available. Our results demonstrate the effectiveness of PaperCoder in creating high-quality, faithful implementations. Furthermore, it consistently shows strengths in the recently released PaperBench benchmark, surpassing strong baselines by substantial margins.
- Abstract(参考訳): 機械学習研究の急速な成長にもかかわらず、対応するコード実装は利用できないことが多く、研究者が結果を再現し、事前の作業を構築するのが遅く、労働集約的になる。
一方、最近のLarge Language Models (LLMs) は科学文書の理解と高品質なコード生成に優れています。
これに触発されたPaperCoderは、機械学習の論文を関数型コードリポジトリに変換するマルチエージェントLLMフレームワークである。
PaperCoderは、高レベルなロードマップを構築し、ダイアグラムでシステムアーキテクチャを設計し、ファイル依存を特定し、構成ファイルを生成する計画、実装固有の詳細を解釈する分析、モジュール型の依存性対応コードを生成する生成の3段階で運用されている。
さらに、各フェーズはパイプライン全体で効果的に協調するように設計された特殊なエージェントによってインスタンス化される。
次に、モデルベースおよび人的評価の両方に基づいて機械学習論文からコード実装を生成するPaperCoderの評価を行った。
その結果,PaperCoderが高品質で忠実な実装を実現する上での有効性を示した。
さらに、最近リリースされたPaperBenchベンチマークの長所を一貫して示しており、かなりのマージンで強いベースラインを超えています。
関連論文リスト
- Codev-Bench: How Do LLMs Understand Developer-Centric Code Completion? [60.84912551069379]
Code-Development Benchmark (Codev-Bench)は、細粒度で現実世界、リポジトリレベル、開発者中心の評価フレームワークです。
Codev-Agentは、リポジトリのクローリングを自動化し、実行環境を構築し、既存のユニットテストから動的呼び出しチェーンを抽出し、データ漏洩を避けるために新しいテストサンプルを生成するエージェントベースのシステムである。
論文 参考訳(メタデータ) (2024-10-02T09:11:10Z) - CodeRefine: A Pipeline for Enhancing LLM-Generated Code Implementations of Research Papers [0.0]
CodeRefineは、研究論文の方法論を大規模言語モデルを用いて機能コードに変換するためのフレームワークである。
我々の多段階アプローチはまず、論文からキーテキストチャンクを抽出して要約し、それらのコード関連性を分析し、知識グラフを作成する。
その後、この構造化表現からコードが生成され、提案されたリフレクション検索拡張生成アプローチによって拡張される。
論文 参考訳(メタデータ) (2024-08-23T20:51:04Z) - RepoAgent: An LLM-Powered Open-Source Framework for Repository-level
Code Documentation Generation [79.83270415843857]
コードドキュメンテーションを積極的に生成、保守、更新することを目的とした、大規模な言語モデルによるオープンソースフレームワークであるRepoAgentを紹介します。
RepoAgentは高品質なリポジトリレベルのドキュメントを生成するのに優れています。
論文 参考訳(メタデータ) (2024-02-26T15:39:52Z) - CodePori: Large-Scale System for Autonomous Software Development Using Multi-Agent Technology [4.2990995991059275]
大規模言語モデル(LLM)とGPT(Generative Pre-trained Transformer)は、ソフトウェア工学の分野を変えました。
我々は,大規模かつ複雑なソフトウェアプロジェクトのコード生成を自動化するように設計された,新しいシステムであるCodePoriを紹介する。
結果: CodePoriは、典型的なソフトウェア開発プロセスに合わせて、大規模プロジェクトの実行コードを生成することができる。
論文 参考訳(メタデータ) (2024-02-02T13:42:50Z) - SparseCoder: Identifier-Aware Sparse Transformer for File-Level Code
Summarization [51.67317895094664]
本稿では,大規模なソースコードプロジェクトの理解と維持を支援するファイルレベルのコード要約について検討する。
長いコードシーケンスを効果的に処理するための識別子対応スパース変換器であるSparseCoderを提案する。
論文 参考訳(メタデータ) (2024-01-26T09:23:27Z) - A^3-CodGen: A Repository-Level Code Generation Framework for Code Reuse with Local-Aware, Global-Aware, and Third-Party-Library-Aware [13.27883339389175]
本稿では,A3-CodGenと呼ばれる新しいコード生成フレームワークを提案する。
その結果、A3-CodGenフレームワークを採用することで、コードリポジトリ情報をLLMに抽出、ヒューズ、フィードし、より正確で、効率的で、再利用性の高いコードを生成します。
論文 参考訳(メタデータ) (2023-12-10T05:36:06Z) - RepoCoder: Repository-Level Code Completion Through Iterative Retrieval
and Generation [96.75695811963242]
RepoCoderはリポジトリレベルのコード補完プロセスを合理化するフレームワークである。
類似性ベースのレトリバーと、事前訓練されたコード言語モデルが組み込まれている。
バニラ検索で拡張されたコード補完アプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2023-03-22T13:54:46Z) - Deep Learning Based Code Generation Methods: Literature Review [30.17038624027751]
本稿では、自然言語記述に従って関連するコードフラグメントを生成することを目的としたコード生成タスクに焦点を当てる。
本稿では,ディープラーニングに基づくコード生成手法に関する現在の研究を体系的にレビューする。
論文 参考訳(メタデータ) (2023-03-02T08:25:42Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。