論文の概要: Paper2Code: Automating Code Generation from Scientific Papers in Machine Learning
- arxiv url: http://arxiv.org/abs/2504.17192v2
- Date: Sat, 26 Apr 2025 14:03:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.21969
- Title: Paper2Code: Automating Code Generation from Scientific Papers in Machine Learning
- Title(参考訳): Paper2Code: 機械学習における科学論文からのコード生成の自動化
- Authors: Minju Seo, Jinheon Baek, Seongyun Lee, Sung Ju Hwang,
- Abstract要約: 機械学習論文を機能コードリポジトリに変換するフレームワークであるPaperCoderを紹介した。
PaperCoderは3つの段階で動作する。計画、図によるシステムアーキテクチャの設計、ファイル依存の特定、構成ファイルの生成である。
次に、モデルベースおよび人的評価の両方に基づいて、機械学習論文からコード実装を生成するPaperCoderを評価する。
- 参考スコア(独自算出の注目度): 57.09163579304332
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the rapid growth of machine learning research, corresponding code implementations are often unavailable, making it slow and labor-intensive for researchers to reproduce results and build upon prior work. In the meantime, recent Large Language Models (LLMs) excel at understanding scientific documents and generating high-quality code. Inspired by this, we introduce PaperCoder, a multi-agent LLM framework that transforms machine learning papers into functional code repositories. PaperCoder operates in three stages: planning, where it constructs a high-level roadmap, designs the system architecture with diagrams, identifies file dependencies, and generates configuration files; analysis, which focuses on interpreting implementation-specific details; and generation, where modular, dependency-aware code is produced. Moreover, each phase is instantiated through a set of specialized agents designed to collaborate effectively across the pipeline. We then evaluate PaperCoder on generating code implementations from machine learning papers based on both model-based and human evaluations, specifically from the original paper authors, with author-released repositories as ground truth if available. Our results demonstrate the effectiveness of PaperCoder in creating high-quality, faithful implementations. Furthermore, it consistently shows strengths in the recently released PaperBench benchmark, surpassing strong baselines by substantial margins. Code is available at: https://github.com/going-doer/Paper2Code.
- Abstract(参考訳): 機械学習研究の急速な成長にもかかわらず、対応するコード実装は利用できないことが多く、研究者が結果を再現し、事前の作業を構築するのが遅く、労働集約的になる。
一方、最近のLarge Language Models (LLMs) は科学文書の理解と高品質なコード生成に優れています。
これに触発されたPaperCoderは、機械学習の論文を関数型コードリポジトリに変換するマルチエージェントLLMフレームワークである。
PaperCoderは、高レベルなロードマップを構築し、ダイアグラムでシステムアーキテクチャを設計し、ファイル依存を特定し、構成ファイルを生成する計画、実装固有の詳細を解釈する分析、モジュール型の依存性対応コードを生成する生成の3段階で運用されている。
さらに、各フェーズはパイプライン全体で効果的に協調するように設計された特殊なエージェントによってインスタンス化される。
次に、モデルベースおよび人的評価の両方に基づいて機械学習論文からコード実装を生成するPaperCoderの評価を行った。
その結果,PaperCoderが高品質で忠実な実装を実現する上での有効性を示した。
さらに、最近リリースされたPaperBenchベンチマークの長所を一貫して示しており、かなりのマージンで強いベースラインを超えています。
コードは、https://github.com/going-doer/Paper2Codeで入手できる。
関連論文リスト
- AutoP2C: An LLM-Based Agent Framework for Code Repository Generation from Multimodal Content in Academic Papers [9.851681616116718]
本稿では,学術出版物のマルチモーダルコンテンツを完全実行可能なコードリポジトリに変換する新しいタスクであるPaper-to-Code' (P2C)を紹介する。
研究論文からテキストコンテンツと視覚コンテンツの両方を処理し,完全なコードリポジトリを生成する,大規模言語モデルに基づくマルチエージェントフレームワークであるAutoP2Cを提案する。
論文 参考訳(メタデータ) (2025-04-28T05:47:37Z) - Empowering AI to Generate Better AI Code: Guided Generation of Deep Learning Projects with LLMs [4.616570111453259]
大規模言語モデル(LLM)は、ディープラーニングプロジェクト全体の生成に苦労する。
本稿では,ディープラーニングプロジェクトを生成するための新しい計画誘導型コード生成手法DLCodeGenを提案する。
論文 参考訳(メタデータ) (2025-04-21T13:09:25Z) - DocAgent: A Multi-Agent System for Automated Code Documentation Generation [7.653779364214401]
本稿では、トポロジ的コード処理によるインクリメンタルコンテキスト構築のための新しいマルチエージェント協調システムDocAgentを紹介する。
特殊なエージェント(Reader、Searcher、Writer、Verifier、Orchestrator)が共同でドキュメントを生成する。
また, 完全性, ヘルプ性, 真実性を評価する多面的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-11T17:50:08Z) - AdaCoder: An Adaptive Planning and Multi-Agent Framework for Function-Level Code Generation [17.020112052995334]
典型的なマルチエージェントフレームワークは、LLM(Large Language Model)ベースのエージェントで構成されている。
AdaCoderは、関数レベルのコード生成のための新しい適応型プランニング、マルチエージェントフレームワークである。
論文 参考訳(メタデータ) (2025-04-05T16:14:01Z) - CodeIF: Benchmarking the Instruction-Following Capabilities of Large Language Models for Code Generation [24.090719826360342]
我々は、コード生成シナリオ内でタスク指向の命令に従うために、LLM(Large Language Models)の能力を評価するために設計された最初のベンチマークであるCodeIFを紹介する。
我々はLLMによる広範囲な実験を行い、これらの課題の要求を満たす上での強みと限界を分析した。
論文 参考訳(メタデータ) (2025-02-26T14:19:49Z) - Codev-Bench: How Do LLMs Understand Developer-Centric Code Completion? [60.84912551069379]
Code-Development Benchmark (Codev-Bench)は、細粒度で現実世界、リポジトリレベル、開発者中心の評価フレームワークです。
Codev-Agentは、リポジトリのクローリングを自動化し、実行環境を構築し、既存のユニットテストから動的呼び出しチェーンを抽出し、データ漏洩を避けるために新しいテストサンプルを生成するエージェントベースのシステムである。
論文 参考訳(メタデータ) (2024-10-02T09:11:10Z) - CodeRAG-Bench: Can Retrieval Augment Code Generation? [78.37076502395699]
検索拡張生成を用いたコード生成の系統的,大規模な解析を行う。
まず、コード生成タスクの3つのカテゴリを含む総合的な評価ベンチマークであるCodeRAG-Benchをキュレートする。
CodeRAG-Bench上のトップパフォーマンスモデルについて、1つまたは複数のソースから検索したコンテキストを提供することにより検討する。
論文 参考訳(メタデータ) (2024-06-20T16:59:52Z) - RepoAgent: An LLM-Powered Open-Source Framework for Repository-level
Code Documentation Generation [79.83270415843857]
コードドキュメンテーションを積極的に生成、保守、更新することを目的とした、大規模な言語モデルによるオープンソースフレームワークであるRepoAgentを紹介します。
RepoAgentは高品質なリポジトリレベルのドキュメントを生成するのに優れています。
論文 参考訳(メタデータ) (2024-02-26T15:39:52Z) - SparseCoder: Identifier-Aware Sparse Transformer for File-Level Code
Summarization [51.67317895094664]
本稿では,大規模なソースコードプロジェクトの理解と維持を支援するファイルレベルのコード要約について検討する。
長いコードシーケンスを効果的に処理するための識別子対応スパース変換器であるSparseCoderを提案する。
論文 参考訳(メタデータ) (2024-01-26T09:23:27Z) - A^3-CodGen: A Repository-Level Code Generation Framework for Code Reuse with Local-Aware, Global-Aware, and Third-Party-Library-Aware [13.27883339389175]
本稿では,A3-CodGenと呼ばれる新しいコード生成フレームワークを提案する。
その結果、A3-CodGenフレームワークを採用することで、コードリポジトリ情報をLLMに抽出、ヒューズ、フィードし、より正確で、効率的で、再利用性の高いコードを生成します。
論文 参考訳(メタデータ) (2023-12-10T05:36:06Z) - RepoCoder: Repository-Level Code Completion Through Iterative Retrieval
and Generation [96.75695811963242]
RepoCoderはリポジトリレベルのコード補完プロセスを合理化するフレームワークである。
類似性ベースのレトリバーと、事前訓練されたコード言語モデルが組み込まれている。
バニラ検索で拡張されたコード補完アプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2023-03-22T13:54:46Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z) - CodeRetriever: Unimodal and Bimodal Contrastive Learning [128.06072658302165]
関数レベルのコードセマンティック表現を訓練するために,一様および二様のコントラスト学習を組み合わせたCodeRetrieverモデルを提案する。
ノンモーダルなコントラスト学習のために、文書と関数名に基づいてポジティブなコードペアを構築するためのセマンティックガイド付き手法を設計する。
バイモーダルなコントラスト学習では、コードのドキュメンテーションとインラインコメントを活用して、テキストコードペアを構築します。
論文 参考訳(メタデータ) (2022-01-26T10:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。