論文の概要: Industrial LLM-based Code Optimization under Regulation: A Mixture-of-Agents Approach
- arxiv url: http://arxiv.org/abs/2508.03329v2
- Date: Wed, 06 Aug 2025 12:41:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 13:27:10.402135
- Title: Industrial LLM-based Code Optimization under Regulation: A Mixture-of-Agents Approach
- Title(参考訳): 規制下における産業用LLMに基づくコード最適化:混合エージェントアプローチ
- Authors: Mari Ashiga, Vardan Voskanyan, Fateme Dinmohammadi, Jingzhi Gong, Paul Brookes, Matthew Truscott, Rafail Giavrimis, Mike Basios, Leslie Kanthan, Wei Jie,
- Abstract要約: 複数の特殊言語モデル(LLM)からコードを直接合成するMixture-of-Agents (MoA) アプローチを実装した。
本研究では,TurinTech AIのvanilla Genetic Algorithm(GA)ベースのアンサンブルシステムと,実世界の産業技術を用いた個々のLLMを比較した。
主要なコントリビューションとしては,(1) 実世界を用いた産業用コード最適化への最初のMoA適用,(2) MoAがオープンソースモデルに優れているという実証的証拠,(3) GAの商用モデルに対する優位性を実証するデプロイガイドライン,(4) 実世界における50個のコードスニペットの検証などがあります。
- 参考スコア(独自算出の注目度): 1.4193733244457822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in Large Language Models (LLMs) for code optimization have enabled industrial platforms to automate software performance engineering at unprecedented scale and speed. Yet, organizations in regulated industries face strict constraints on which LLMs they can use - many cannot utilize commercial models due to data privacy regulations and compliance requirements, creating a significant challenge for achieving high-quality code optimization while maintaining cost-effectiveness. We address this by implementing a Mixture-of-Agents (MoA) approach that directly synthesizes code from multiple specialized LLMs, comparing it against TurinTech AI's vanilla Genetic Algorithm (GA)-based ensemble system and individual LLM optimizers using real-world industrial codebases. Our key contributions include: (1) First MoA application to industrial code optimization using real-world codebases; (2) Empirical evidence that MoA excels with open-source models, achieving 14.3% to 22.2% cost savings and 28.6% to 32.2% faster optimization times for regulated environments; (3) Deployment guidelines demonstrating GA's advantage with commercial models while both ensembles outperform individual LLMs; and (4) Real-world validation across 50 code snippets and seven LLM combinations, generating over 8,700 variants, addresses gaps in industrial LLM ensemble evaluation. This provides actionable guidance for organizations balancing regulatory compliance with optimization performance in production environments.
- Abstract(参考訳): コード最適化のためのLarge Language Models(LLM)の最近の進歩により、産業プラットフォームは前例のない規模と速度でソフトウェアパフォーマンスエンジニアリングを自動化することができた。
多くの場合、データプライバシの規制やコンプライアンスの要件のために商用モデルを利用できないため、コスト効率を保ちながら高品質なコード最適化を実現する上で大きな課題を生み出します。
我々は,複数の特殊なLLMからコードを直接合成するMixture-of-Agents(MoA)アプローチを実装し,TurinTech AIのvanilla Genetic Algorithm(GA)ベースのアンサンブルシステムと,実世界の産業コードベースを用いた個々のLLMオプティマイザとを比較した。
1)実世界のコードベースを使用した産業用コード最適化への最初のMoAアプリケーション、(2)MoAが14.3%から22.2%のコスト削減、28.6%から32.2%の高速な環境最適化、(3)GAの商業用モデルに対する優位性を実証するデプロイガイドライン、(4)50個のコードスニペットと7つのLLM組み合わせにわたる実世界の検証、8,700以上のバリエーションの生成、産業用LLMアンサンブル評価のギャップへの対処、などです。
これにより、運用環境における規制コンプライアンスと最適化パフォーマンスのバランスをとる組織に対して、実行可能なガイダンスが提供されます。
関連論文リスト
- Tuning LLM-based Code Optimization via Meta-Prompting: An Industrial Perspective [7.699689169768917]
多様な大規模言語モデル(LLM)にまたがるタスク固有のプロンプトを自動的に生成するフレームワークであるMPCO(Meta-Prompted Code Optimization)を紹介する。
MPCOは、自動検証とスケーリングのために、ARTEMISインダストリアルプラットフォームにシームレスにデプロイする。
分析によると、トップパフォーマンス最適化の96%は意味のある編集に由来する。
論文 参考訳(メタデータ) (2025-08-02T17:11:40Z) - WALL-E 2.0: World Alignment by NeuroSymbolic Learning improves World Model-based LLM Agents [55.64361927346957]
本研究では,大規模言語モデル(LLM)を補完する環境の記号的知識を学習する「世界アライメント」を提案する。
また、モデル予測制御フレームワークを用いて、RLフリーでモデルベースエージェント「WALL-E 2.0」を提案する。
WALL-E 2.0は、火星(Minecraftのような)とALFWorld(emboded indoor environment)のオープンワールド課題における既存の手法を著しく上回っている
論文 参考訳(メタデータ) (2025-04-22T10:58:27Z) - GOLLuM: Gaussian Process Optimized LLMs -- Reframing LLM Finetuning through Bayesian Optimization [0.4037357056611557]
大規模言語モデル(LLM)は、その潜在空間における複雑な関係を符号化することができる。
LLMベースのディープカーネルを導入し、GPと共同で最適化し、両方の利点を維持する。
提案手法は, 静的LLM埋め込みと比較して, 高効率反応の発見率をほぼ2倍に向上させる。
論文 参考訳(メタデータ) (2025-04-08T17:59:57Z) - Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - Quantizing Large Language Models for Code Generation: A Differentiated Replication [51.85505914274633]
大規模言語モデル(LLM)は、コード生成において印象的な能力を示しており、特に自然言語で記述された要求を自動的に実装する。
LLMはメモリ(そして結果として炭素)のフットプリントに重大な課題をもたらす。
LLM量子化の新しいフロンティアは4ビット精度であり、平均メモリフットプリントが70%減少する。
論文 参考訳(メタデータ) (2025-03-10T09:26:08Z) - LLM2: Let Large Language Models Harness System 2 Reasoning [65.89293674479907]
大規模言語モデル(LLM)は、無数のタスクにまたがって印象的な機能を示してきたが、時には望ましくない出力が得られる。
本稿では LLM とプロセスベースの検証器を組み合わせた新しいフレームワーク LLM2 を紹介する。
LLMs2は妥当な候補を生成するのに責任を持ち、検証者は望ましい出力と望ましくない出力を区別するためにタイムリーなプロセスベースのフィードバックを提供する。
論文 参考訳(メタデータ) (2024-12-29T06:32:36Z) - PerfCodeGen: Improving Performance of LLM Generated Code with Execution Feedback [78.89596149768458]
大規模言語モデル(LLM)は、ソフトウェア開発タスクを支援するために広く採用されている。
LLM生成コードの性能を向上させるトレーニングフリーフレームワークPerfCodeGenを提案する。
論文 参考訳(メタデータ) (2024-11-18T06:22:38Z) - OpenCoder: The Open Cookbook for Top-Tier Code Large Language Models [76.59316249991657]
コードのための大規模言語モデル(LLM)は、コード生成、推論タスク、エージェントシステムなど、さまざまな領域で必須になっている。
オープンアクセスのコード LLM はプロプライエタリなモデルの性能レベルに近づきつつあるが、高品質なコード LLM は依然として限られている。
トップクラスのコードLLMであるOpenCoderは、主要なモデルに匹敵するパフォーマンスを達成するだけでなく、研究コミュニティの"オープンクックブック"としても機能します。
論文 参考訳(メタデータ) (2024-11-07T17:47:25Z) - Generative Design of Functional Metal Complexes Utilizing the Internal Knowledge of Large Language Models [8.274381794940403]
大規模言語モデル(LLM)を進化最適化フレームワーク(LLM-EO)に導入する。
LLM-EOは, 事前学習中に得られたLSMの化学的知識を活用することで, 従来の遺伝的アルゴリズムを超越していることがわかった。
化学および材料設計におけるLCMに基づく進化的最適化の幅広い応用を予見する。
論文 参考訳(メタデータ) (2024-10-21T23:24:34Z) - Search-Based LLMs for Code Optimization [16.843870288512363]
開発者によって書かれたコードは、通常効率上の問題に悩まされ、様々なパフォーマンス上のバグを含んでいる。
最近の研究は、タスクをシーケンス生成問題とみなし、大規模言語モデル(LLM)のようなディープラーニング(DL)技術を活用している。
改良された最適化手法の反復的洗練と発見を可能にする,SBLLM という検索ベース LLM フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-22T06:59:46Z) - ORLM: A Customizable Framework in Training Large Models for Automated Optimization Modeling [15.67321902882617]
本稿では,オープンソースのLLMをトレーニングし,モデリングやソルバコードの開発を最適化する実行可能なパスを提案する。
この研究は、実用的なOR問題の解決においてLLMを評価するための最初の産業ベンチマークであるIndustrialORも導入した。
論文 参考訳(メタデータ) (2024-05-28T01:55:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。