論文の概要: Exploring the Feasibility of End-to-End Large Language Model as a Compiler
- arxiv url: http://arxiv.org/abs/2511.04132v1
- Date: Thu, 06 Nov 2025 07:21:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.345773
- Title: Exploring the Feasibility of End-to-End Large Language Model as a Compiler
- Title(参考訳): コンパイラとしてのエンド・ツー・エンド大言語モデルの可能性を探る
- Authors: Hongbin Zhang, Shihao Gao, Yang Liu, Mingjie Xing, Yanjun Wu, Chen Zhao,
- Abstract要約: 大規模言語モデル(LLM)技術は、様々な領域で大きな利点を示している。
本稿では,コンパイラ(LaaC)としてのLCMの実現可能性とその今後の方向性について検討する。
- 参考スコア(独自算出の注目度): 20.15972226865971
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, end-to-end Large Language Model (LLM) technology has shown substantial advantages across various domains. As critical system software and infrastructure, compilers are responsible for transforming source code into target code. While LLMs have been leveraged to assist in compiler development and maintenance, their potential as an end-to-end compiler remains largely unexplored. This paper explores the feasibility of LLM as a Compiler (LaaC) and its future directions. We designed the CompilerEval dataset and framework specifically to evaluate the capabilities of mainstream LLMs in source code comprehension and assembly code generation. In the evaluation, we analyzed various errors, explored multiple methods to improve LLM-generated code, and evaluated cross-platform compilation capabilities. Experimental results demonstrate that LLMs exhibit basic capabilities as compilers but currently achieve low compilation success rates. By optimizing prompts, scaling up the model, and incorporating reasoning methods, the quality of assembly code generated by LLMs can be significantly enhanced. Based on these findings, we maintain an optimistic outlook for LaaC and propose practical architectural designs and future research directions. We believe that with targeted training, knowledge-rich prompts, and specialized infrastructure, LaaC has the potential to generate high-quality assembly code and drive a paradigm shift in the field of compilation.
- Abstract(参考訳): 近年,エンド・ツー・エンドのLarge Language Model (LLM) 技術は様々な分野において大きな優位性を示している。
重要なシステムソフトウェアとインフラとして、コンパイラはソースコードをターゲットコードに変換する責任がある。
LLMは、コンパイラの開発とメンテナンスを支援するために利用されてきたが、エンドツーエンドコンパイラとしての可能性は、まだ明らかにされていない。
本稿では,コンパイラ(LaaC)としてのLCMの実現可能性とその今後の方向性について検討する。
我々は、ソースコード理解とアセンブリコード生成において、主要なLLMの機能を評価するために、CompilerEvalデータセットとフレームワークを設計した。
評価では、様々なエラーを分析し、LLM生成コードを改善するための複数の手法を探索し、クロスプラットフォームのコンパイル機能を評価した。
実験の結果,LLMはコンパイラとして基本的な機能を示すが,コンパイル成功率は低いことがわかった。
プロンプトを最適化し、モデルをスケールアップし、推論手法を取り入れることで、LCMが生成するアセンブリコードの品質を大幅に向上することができる。
これらの知見に基づき、我々はLaaCの楽観的な展望を維持し、実用的な建築設計と今後の研究方向性を提案する。
目標とするトレーニング、知識豊富なプロンプト、特殊なインフラストラクチャによって、LaaCは高品質なアセンブリコードを生成し、コンパイルの分野でパラダイムシフトを起こす可能性がある、と私たちは信じています。
関連論文リスト
- SURGE: On the Potential of Large Language Models as General-Purpose Surrogate Code Executors [7.210032327838313]
大規模言語モデル(LLM)がコード実行予測の代理モデルとして機能するかどうかを検討する。
オープンソースおよびプロプライエタリ LLM の広範な分析を通じて,スケーリング法則,データ効率,予測精度について検討する。
計算機処理における効率的なサロゲートとしてのLCMの実現可能性に関する重要な知見を明らかにした。
論文 参考訳(メタデータ) (2025-02-16T15:38:19Z) - Codellm-Devkit: A Framework for Contextualizing Code LLMs with Program Analysis Insights [9.414198519543564]
codellm-devkit (以下, CLDK') は,プログラム解析のプロセスを大幅に単純化したオープンソースライブラリである。
CLDKは開発者に対して直感的でユーザフレンドリなインターフェースを提供しています。
論文 参考訳(メタデータ) (2024-10-16T20:05:59Z) - What's Wrong with Your Code Generated by Large Language Models? An Extensive Study [92.62952504133926]
本研究は,3つの一般的なベンチマーク上で,3つの主要なクローズドソースLLMと6つの人気のあるオープンソースLLMの性能評価を行った。
間違ったコードに対するバグの分類を開発し、一般的なバグタイプに対する根本原因を分析した。
本稿では,自己批判を導入し,LLMが生成したコードに対する批判と修正を可能にする,新たな学習自由反復手法を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:27:17Z) - Meta Large Language Model Compiler: Foundation Models of Compiler Optimization [21.161784011956126]
大規模言語モデル(LLM)は、様々なソフトウェア工学やコーディングタスクにまたがる顕著な機能を示している。
しかしながら、コード領域におけるそれらのアプリケーションとコンパイラの最適化については、まだ未検討である。
Meta Large Language Model Compiler (LLM Compiler)は、コード最適化タスクのための、堅牢で、オープンに利用可能な、事前訓練されたモデルのスイートである。
論文 参考訳(メタデータ) (2024-06-27T21:47:48Z) - Copilot Evaluation Harness: Evaluating LLM-Guided Software Programming [12.355284125578342]
大規模言語モデル(LLM)は、現代のソフトウェア開発の焦点となっている。
LLMは、インテリジェントでチャット駆動のプログラミングアシスタントとして機能することで、開発者の生産性を大幅に向上する可能性がある。
しかし、それぞれのシステムは、最高のパフォーマンスを確保するために、LLMをそのワークスペースに向ける必要がある。
論文 参考訳(メタデータ) (2024-02-22T03:51:34Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - CompCodeVet: A Compiler-guided Validation and Enhancement Approach for
Code Dataset [12.58750209611099]
数十億のパラメータを持つモデルでさえ、多段階の推論を必要とするタスクの課題に直面します。
CompCodeVetはコンパイル不能なコードからコンパイル可能なコードを生成するためのコンパイラ誘導のCoTアプローチである。
論文 参考訳(メタデータ) (2023-11-11T08:21:52Z) - CodeTF: One-stop Transformer Library for State-of-the-art Code LLM [72.1638273937025]
我々は、最先端のCode LLMとコードインテリジェンスのためのオープンソースのTransformerベースのライブラリであるCodeTFを紹介する。
我々のライブラリは、事前訓練されたコードLLMモデルと人気のあるコードベンチマークのコレクションをサポートします。
CodeTFが機械学習/生成AIとソフトウェア工学のギャップを埋められることを願っている。
論文 参考訳(メタデータ) (2023-05-31T05:24:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。