論文の概要: From Articles to Code: On-Demand Generation of Core Algorithms from Scientific Publications
- arxiv url: http://arxiv.org/abs/2507.22324v1
- Date: Wed, 30 Jul 2025 01:52:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:17.925212
- Title: From Articles to Code: On-Demand Generation of Core Algorithms from Scientific Publications
- Title(参考訳): 論文からコードへ:科学出版からのコアアルゴリズムのオンデマンド生成
- Authors: Cameron S. Movassaghi, Amanda Momenzadeh, Jesse G. Meyer,
- Abstract要約: 学術出版物におけるリッチなメソッド記述は、現代の大規模言語モデルのスタンドアロン仕様として機能することを示す。
我々は、従来の出版物から引き出された多種多様なコアアルゴリズムを実装することで、最先端モデルをベンチマークする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Maintaining software packages imposes significant costs due to dependency management, bug fixes, and versioning. We show that rich method descriptions in scientific publications can serve as standalone specifications for modern large language models (LLMs), enabling on-demand code generation that could supplant human-maintained libraries. We benchmark state-of-the-art models (GPT-o4-mini-high, Gemini Pro 2.5, Claude Sonnet 4) by tasking them with implementing a diverse set of core algorithms drawn from original publications. Our results demonstrate that current LLMs can reliably reproduce package functionality with performance indistinguishable from conventional libraries. These findings foreshadow a paradigm shift toward flexible, on-demand code generation and away from static, human-maintained packages, which will result in reduced maintenance overhead by leveraging published articles as sufficient context for the automated implementation of analytical workflows.
- Abstract(参考訳): ソフトウェアパッケージのメンテナンスには依存性管理、バグ修正、バージョン管理などによる大幅なコストがかかる。
学術出版物におけるリッチなメソッド記述は、現代大言語モデル(LLM)のスタンドアロン仕様として機能し、人間のメンテナンスライブラリに取って代わるオンデマンドコード生成を可能にすることを示す。
GPT-o4-mini-high、Gemini Pro 2.5、Claude Sonnet 4)をベンチマークし、オリジナルの出版物から引き出された多種多様なコアアルゴリズムを実装する。
以上の結果から,現在のLLMは,従来のライブラリと区別できない性能で,パッケージ機能を確実に再現できることが示唆された。
これらの発見は、フレキシブルでオンデマンドなコード生成へのパラダイムシフトと、静的でメンテナンスされたパッケージからの脱却を先導するものだ。
関連論文リスト
- GPT-4.1 Sets the Standard in Automated Experiment Design Using Novel Python Libraries [0.7905066238005297]
大規模言語モデル(LLM)は、科学研究におけるコード生成を自動化するツールとして急速に進歩してきた。
本研究では,2つの難易度の高いシナリオに対して,関数型Pythonコードを生成する上で,最先端のLLMの選択を体系的にベンチマークする。
論文 参考訳(メタデータ) (2025-07-30T13:11:29Z) - Evaluating Large Language Models on Non-Code Software Engineering Tasks [4.381476817430934]
大規模言語モデル(LLM)は、コード理解と生成において顕著な能力を示している。
ソフトウェア工学言語理解(SELU)と呼ばれる最初の包括的なベンチマークを提示する。
SELUは、分類、回帰、名前付きエンティティ認識(NER)とマスケッド言語モデリング(MLM)のターゲットをカバーし、さまざまなソースからデータを引き出す。
論文 参考訳(メタデータ) (2025-06-12T15:52:32Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - Code Graph Model (CGM): A Graph-Integrated Large Language Model for Repository-Level Software Engineering Tasks [42.79558714652442]
大きな言語モデル(LLM)は関数レベルのコード生成を約束しているが、リポジトリレベルのソフトウェアエンジニアリングタスクは依然として難しい。
本稿では,オープンソース LLM がエージェントベースアプローチを必要とせずに,リポジトリレベルのタスクを効果的に処理できるかどうかを検討する。
リポジトリコードグラフ構造をLLMのアテンション機構に統合するコードグラフモデル(CGM)を導入する。
論文 参考訳(メタデータ) (2025-05-22T17:00:55Z) - Syntactic and Semantic Control of Large Language Models via Sequential Monte Carlo [90.78001821963008]
広い範囲のLMアプリケーションは、構文的制約や意味論的制約に適合するテキストを生成する必要がある。
我々は、連続モンテカルロ(SMC)に基づく制御LM生成のためのアーキテクチャを開発する。
我々のシステムはLew et al. (2023) のフレームワーク上に構築されており、言語モデル確率型プログラミング言語と統合されている。
論文 参考訳(メタデータ) (2025-04-17T17:49:40Z) - Model Utility Law: Evaluating LLMs beyond Performance through Mechanism Interpretable Metric [99.56567010306807]
大規模言語モデル(LLM)は、学術、産業、そして日々のアプリケーションに欠かせないものになっている。
大規模言語モデル (LLM) 時代における評価の課題の1つは一般化問題である。
従来の性能スコアを補完するメカニズムの解釈可能性向上指標であるモデル利用指数(MUI)を提案する。
論文 参考訳(メタデータ) (2025-04-10T04:09:47Z) - Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - Citegeist: Automated Generation of Related Work Analysis on the arXiv Corpus [0.0]
Citegeist: arXiv Corpus上の動的検索拡張生成(RAG)を用いたアプリケーションパイプラインについて述べる。
この目的のために、埋め込みに基づく類似性マッチング、要約、多段階フィルタリングの混合を用いる。
文書基盤の継続的な成長に適応するために、新しい文書や修正文書を組み込む最適化された方法を提案する。
論文 参考訳(メタデータ) (2025-03-29T21:19:43Z) - PennyLang: Pioneering LLM-Based Quantum Code Generation with a Novel PennyLane-Centric Dataset [4.826802034066811]
大きな言語モデル(LLM)は、コード生成、自然言語処理、ドメイン固有の推論において顕著な機能を提供します。
我々は,3,347ペニーレーン固有の量子コードサンプルと文脈記述からなる,新しい高品質なデータセットを提案する。
論文 参考訳(メタデータ) (2025-03-04T11:04:35Z) - OpenCoder: The Open Cookbook for Top-Tier Code Large Language Models [76.59316249991657]
コードのための大規模言語モデル(LLM)は、コード生成、推論タスク、エージェントシステムなど、さまざまな領域で必須になっている。
オープンアクセスのコード LLM はプロプライエタリなモデルの性能レベルに近づきつつあるが、高品質なコード LLM は依然として限られている。
トップクラスのコードLLMであるOpenCoderは、主要なモデルに匹敵するパフォーマンスを達成するだけでなく、研究コミュニティの"オープンクックブック"としても機能します。
論文 参考訳(メタデータ) (2024-11-07T17:47:25Z) - AXOLOTL: Fairness through Assisted Self-Debiasing of Large Language
Model Outputs [20.772266479533776]
AXOLOTLはタスクやモデル間で不可知的に動作する新しい後処理フレームワークである。
バイアスを識別し、解像度を提案し、モデルにアウトプットを自己バイアスさせる。
このアプローチは計算コストを最小化し、モデル性能を保存する。
論文 参考訳(メタデータ) (2024-03-01T00:02:37Z) - Cheaply Evaluating Inference Efficiency Metrics for Autoregressive
Transformer APIs [66.30706841821123]
大規模言語モデル(LLM)は、自然言語処理において多くの最先端システムに電力を供給する。
LLMは、推論時でさえ非常に計算コストが高い。
モデル間での推論効率を比較するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-05-03T21:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。