論文の概要: LEGO-Compiler: Enhancing Neural Compilation Through Translation Composability
- arxiv url: http://arxiv.org/abs/2505.20356v1
- Date: Mon, 26 May 2025 07:07:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.203714
- Title: LEGO-Compiler: Enhancing Neural Compilation Through Translation Composability
- Title(参考訳): LEGOコンパイラ: 翻訳合成性によるニューラルコンパイルの強化
- Authors: Shuoming Zhang, Jiacheng Zhao, Chunwei Xia, Zheng Wang, Yunji Chen, Xiaobing Feng, Huimin Cui,
- Abstract要約: 大きな言語モデル(LLM)は、コンパイラやコード翻訳ツールの設計と実装方法に革命をもたらす可能性がある。
LEGO-Compilerは,LLMを利用して高レベル言語をアセンブリコードに変換する,新しいニューラルコンパイルシステムである。
私たちのアプローチでは,入力プログラムを管理可能なブロックに分解するLEGOトランスフォーメーション,複雑なコンパイルプロセスをより小さく,よりシンプルな検証可能なステップに分割する,自己修正のためのフィードバックメカニズムという,3つの重要なイノベーションに重点を置いています。
- 参考スコア(独自算出の注目度): 8.907036337469979
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have the potential to revolutionize how we design and implement compilers and code translation tools. However, existing LLMs struggle to handle long and complex programs. We introduce LEGO-Compiler, a novel neural compilation system that leverages LLMs to translate high-level languages into assembly code. Our approach centers on three key innovations: LEGO translation, which decomposes the input program into manageable blocks; breaking down the complex compilation process into smaller, simpler verifiable steps by organizing it as a verifiable LLM workflow by external tests; and a feedback mechanism for self-correction. Supported by formal proofs of translation composability, LEGO-Compiler demonstrates high accuracy on multiple datasets, including over 99% on ExeBench and 97.9% on industrial-grade AnsiBench. Additionally, LEGO-Compiler has also acheived near one order-of-magnitude improvement on compilable code size scalability. This work opens new avenues for applying LLMs to system-level tasks, complementing traditional compiler technologies.
- Abstract(参考訳): 大きな言語モデル(LLM)は、コンパイラやコード翻訳ツールの設計と実装方法に革命をもたらす可能性がある。
しかし、既存のLLMは長く複雑なプログラムを扱うのに苦労している。
LEGO-Compilerは,LLMを利用して高レベル言語をアセンブリコードに変換する,新しいニューラルコンパイルシステムである。
私たちのアプローチは,入力プログラムを管理可能なブロックに分解するLEGO翻訳,複雑なコンパイルプロセスを,外部テストによって検証可能なLLMワークフローとして整理することで,より小さく,よりシンプルな検証可能なステップに分解する,自己修正のためのフィードバックメカニズムという,3つの重要なイノベーションに重点を置いています。
LEGO-Compilerは、コンポーザビリティの正式な証明によって、ExeBenchの99%、産業レベルのAnsiBenchの97.9%を含む複数のデータセットで高い精度を示す。
さらにLEGO-Compilerは、コンパイル可能なコードサイズのスケーラビリティに対して、ほぼ一桁の改善を実現している。
この作業は、従来のコンパイラ技術を補完するシステムレベルのタスクにLLMを適用するための新しい道を開く。
関連論文リスト
- Renaissance of Literate Programming in the Era of LLMs: Enhancing LLM-Based Code Generation in Large-Scale Projects [7.927743991760644]
大規模言語モデル(LLM)は、コード生成、理解、修復を通じてプログラマの効率向上を支援する。
大規模プロジェクトへの彼らの適用は、複雑な相互依存と近代の広範な規模のために、依然として困難である。
本研究では,ILP(Interoperable LP)の概念を導入し,LLMによる小規模文書と大規模プロジェクトの開発を促進する。
論文 参考訳(メタデータ) (2024-12-25T12:02:46Z) - Meta Large Language Model Compiler: Foundation Models of Compiler Optimization [21.161784011956126]
大規模言語モデル(LLM)は、様々なソフトウェア工学やコーディングタスクにまたがる顕著な機能を示している。
しかしながら、コード領域におけるそれらのアプリケーションとコンパイラの最適化については、まだ未検討である。
Meta Large Language Model Compiler (LLM Compiler)は、コード最適化タスクのための、堅牢で、オープンに利用可能な、事前訓練されたモデルのスイートである。
論文 参考訳(メタデータ) (2024-06-27T21:47:48Z) - Meaning-Typed Programming: Language-level Abstractions and Runtime for GenAI Applications [8.308424118055981]
ソフトウェアは、論理コードから、生成的AIとアプリケーション機能に大規模言語モデル(LLM)を活用する神経統合アプリケーションへと、急速に進化している。
本稿では,神経統合型アプリケーションの作成を簡略化する新しい手法として,意味型プログラミング(MTP)を提案する。
論文 参考訳(メタデータ) (2024-05-14T21:12:01Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z) - Guess & Sketch: Language Model Guided Transpilation [59.02147255276078]
学習されたトランスパイレーションは、手作業による書き直しやエンジニアリングの取り組みに代わるものだ。
確率的ニューラルネットワークモデル(LM)は、入力毎に可塑性出力を生成するが、正確性を保証するコストがかかる。
Guess & Sketch は LM の特徴からアライメントと信頼性情報を抽出し、意味的等価性を解決するためにシンボリック・ソルバに渡す。
論文 参考訳(メタデータ) (2023-09-25T15:42:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。