論文の概要: From Articles to Code: On-Demand Generation of Core Algorithms from Scientific Publications
- arxiv url: http://arxiv.org/abs/2507.22324v1
- Date: Wed, 30 Jul 2025 01:52:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:17.925212
- Title: From Articles to Code: On-Demand Generation of Core Algorithms from Scientific Publications
- Title(参考訳): 論文からコードへ:科学出版からのコアアルゴリズムのオンデマンド生成
- Authors: Cameron S. Movassaghi, Amanda Momenzadeh, Jesse G. Meyer,
- Abstract要約: 学術出版物におけるリッチなメソッド記述は、現代の大規模言語モデルのスタンドアロン仕様として機能することを示す。
我々は、従来の出版物から引き出された多種多様なコアアルゴリズムを実装することで、最先端モデルをベンチマークする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Maintaining software packages imposes significant costs due to dependency management, bug fixes, and versioning. We show that rich method descriptions in scientific publications can serve as standalone specifications for modern large language models (LLMs), enabling on-demand code generation that could supplant human-maintained libraries. We benchmark state-of-the-art models (GPT-o4-mini-high, Gemini Pro 2.5, Claude Sonnet 4) by tasking them with implementing a diverse set of core algorithms drawn from original publications. Our results demonstrate that current LLMs can reliably reproduce package functionality with performance indistinguishable from conventional libraries. These findings foreshadow a paradigm shift toward flexible, on-demand code generation and away from static, human-maintained packages, which will result in reduced maintenance overhead by leveraging published articles as sufficient context for the automated implementation of analytical workflows.
- Abstract(参考訳): ソフトウェアパッケージのメンテナンスには依存性管理、バグ修正、バージョン管理などによる大幅なコストがかかる。
学術出版物におけるリッチなメソッド記述は、現代大言語モデル(LLM)のスタンドアロン仕様として機能し、人間のメンテナンスライブラリに取って代わるオンデマンドコード生成を可能にすることを示す。
GPT-o4-mini-high、Gemini Pro 2.5、Claude Sonnet 4)をベンチマークし、オリジナルの出版物から引き出された多種多様なコアアルゴリズムを実装する。
以上の結果から,現在のLLMは,従来のライブラリと区別できない性能で,パッケージ機能を確実に再現できることが示唆された。
これらの発見は、フレキシブルでオンデマンドなコード生成へのパラダイムシフトと、静的でメンテナンスされたパッケージからの脱却を先導するものだ。
関連論文リスト
- Code Graph Model (CGM): A Graph-Integrated Large Language Model for Repository-Level Software Engineering Tasks [42.79558714652442]
大きな言語モデル(LLM)は関数レベルのコード生成を約束しているが、リポジトリレベルのソフトウェアエンジニアリングタスクは依然として難しい。
本稿では,オープンソース LLM がエージェントベースアプローチを必要とせずに,リポジトリレベルのタスクを効果的に処理できるかどうかを検討する。
リポジトリコードグラフ構造をLLMのアテンション機構に統合するコードグラフモデル(CGM)を導入する。
論文 参考訳(メタデータ) (2025-05-22T17:00:55Z) - Model Utility Law: Evaluating LLMs beyond Performance through Mechanism Interpretable Metric [99.56567010306807]
大規模言語モデル(LLM)は、学術、産業、そして日々のアプリケーションに欠かせないものになっている。
大規模言語モデル (LLM) 時代における評価の課題の1つは一般化問題である。
従来の性能スコアを補完するメカニズムの解釈可能性向上指標であるモデル利用指数(MUI)を提案する。
論文 参考訳(メタデータ) (2025-04-10T04:09:47Z) - Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - PennyLang: Pioneering LLM-Based Quantum Code Generation with a Novel PennyLane-Centric Dataset [4.826802034066811]
大きな言語モデル(LLM)は、コード生成、自然言語処理、ドメイン固有の推論において顕著な機能を提供します。
我々は,3,347ペニーレーン固有の量子コードサンプルと文脈記述からなる,新しい高品質なデータセットを提案する。
論文 参考訳(メタデータ) (2025-03-04T11:04:35Z) - OpenCoder: The Open Cookbook for Top-Tier Code Large Language Models [76.59316249991657]
コードのための大規模言語モデル(LLM)は、コード生成、推論タスク、エージェントシステムなど、さまざまな領域で必須になっている。
オープンアクセスのコード LLM はプロプライエタリなモデルの性能レベルに近づきつつあるが、高品質なコード LLM は依然として限られている。
トップクラスのコードLLMであるOpenCoderは、主要なモデルに匹敵するパフォーマンスを達成するだけでなく、研究コミュニティの"オープンクックブック"としても機能します。
論文 参考訳(メタデータ) (2024-11-07T17:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。