論文の概要: Workflows vs Agents for Code Translation
- arxiv url: http://arxiv.org/abs/2512.14762v1
- Date: Mon, 15 Dec 2025 20:35:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.731207
- Title: Workflows vs Agents for Code Translation
- Title(参考訳): コード翻訳のためのワークフローとエージェント
- Authors: Henry Gray, Tom Yotam, Octavian Udrea,
- Abstract要約: 大規模言語モデル(LLM)は自動化への道を提供するが、HDLコードの限られたトレーニングによって、エンドツーエンドのトランスパイルが不安定になり、構文エラーが発生しやすい。
LLM-to-HDLパイプラインにおける構文修復のための2つの手法の比較を行った。これは、一定の操作列に従う構造化された専門家設計フローと、モデルコンテキストプロトコル(MCP)を用いたより自律的なエージェントアプローチである。
3つのモデルスケールにまたがって、エージェント的アプローチは、初期構文エラーを解決し、パイプラインを通過する候補の数を増やすのに効果的である。
- 参考スコア(独自算出の注目度): 2.102846336724103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Translating algorithms from high-level languages like MATLAB to hardware description languages (HDLs) is a resource-intensive but necessary step for deployment on FPGAs and ASICs. While large language models (LLMs) offer a path to automation, their limited training on HDL code makes end-to-end transpilation brittle and prone to syntax errors. We compare two LLM-driven methods for syntax repair in a MATLAB-to-HDL pipeline: a structured, expert-designed flow that follows a fixed sequence of operations, and a more autonomous agentic approach that uses the Model Context Protocol (MCP) \cite{anthropic2024mcp} to dynamically select its own tools. We study 42 MATLAB signal-processing functions and isolate the syntax-repair stage. Across three model scales, the agentic approach is more effective at resolving initial syntax errors, unblocking a greater number of candidates to proceed through the pipeline. This upstream improvement yields measurable downstream improvements, most notably on mid-sized models, where it increases the simulation reach rate by over 20 percentage points. We hypothesize the gains come from short prompts, aggressive context management, and conditional tool use. Conditional retrieval helps at 8B and 30B; at 235B final-success gains are small and a naive RAG variant attains the highest final success. Our findings suggest that these agentic frameworks, when properly designed, are most effective at compensating for the capacity limits of small and mid-sized models.
- Abstract(参考訳): MATLABのようなハイレベル言語からハードウェア記述言語(HDL)にアルゴリズムを変換することは、FPGAやASICに展開するためのリソース集約的なステップである。
大きな言語モデル(LLM)は自動化への道を提供するが、HDLコードの限られたトレーニングは、エンドツーエンドのトランスパイルを不安定にし、構文エラーを生じさせる。
我々は,MATLAB-to-HDLパイプラインにおける構文修復のためのLLM駆動の2つの手法を比較した。これは,一定の操作順序に従う構造化された専門家設計フローと,モデルコンテキストプロトコル (MCP) \cite{anthropic2024mcp} を用いて動的にツールを選択可能な,より自律的なエージェントアプローチである。
我々は,42のMATLAB信号処理機能について検討し,構文修復段階を分離する。
3つのモデルスケールにまたがって、エージェント的アプローチは、初期構文のエラーを解消し、パイプラインを進む多くの候補をブロックする上で、より効果的である。
このアップストリームの改善は、特に中規模のモデルで測定可能なダウンストリームの改善をもたらし、シミュレーションの到達率を20パーセント以上向上させる。
私たちは、短いプロンプト、アグレッシブなコンテキスト管理、条件付きツールの使用による利益の仮説を立てています。
条件付き検索は8Bと30Bで役立ち、235Bの最終成功率は小さく、単純RAG変種は最も成功している。
これらのエージェントフレームワークは, 適切に設計された場合, 小型モデルと中型モデルのキャパシティ限界を補償する上で最も有効であることが示唆された。
関連論文リスト
- ML-Tool-Bench: Tool-Augmented Planning for ML Tasks [23.54937738755734]
ツール強化機械学習エージェントの評価のためのベンチマークを導入する。
私たちのベンチマークは、インメモリ名のオブジェクト管理を組み込むことで、従来のツール使用の評価を超えています。
我々のアプローチはReActよりも16.2%向上し、すべてのKaggle課題の中央値を取ります。
論文 参考訳(メタデータ) (2025-11-29T23:59:40Z) - Continuous Autoregressive Language Models [56.49239051750678]
我々はCALM(Continuous Autoregressive Language Models)を紹介する。
CALMは高忠実度オートエンコーダを使用して、Kトークンの塊を1つの連続ベクトルに圧縮する。
我々は、堅牢なトレーニング、評価、および制御可能なサンプリングを可能にする包括的可能性のないフレームワークを開発する。
論文 参考訳(メタデータ) (2025-10-31T17:58:11Z) - Reasoning Distillation and Structural Alignment for Improved Code Generation [0.6933020649563103]
この研究は、大規模言語モデルの推論能力を、より速く、より安価にデプロイできる、より小さく、より効率的なモデルに蒸留する。
提案手法は,正解経路の同定を学習することで,VLLMの推論能力と問題解決能力をエミュレートするためにモデルを訓練する。
実験結果から,我々の微調整モデルは,安価で簡単な実装プロセスによって開発され,パス@1,平均データフロー,平均構文がメトリクスにマッチする点において,ベースラインモデルよりも大幅に優れていることがわかった。
論文 参考訳(メタデータ) (2025-10-20T14:47:47Z) - Reinforcement Learning for Machine Learning Engineering Agents [52.03168614623642]
強化学習によって改善される弱いモデルによって支援されるエージェントは、はるかに大きいが静的モデルによって支援されるエージェントよりも優れていることを示す。
分散非同期RLフレームワークにおいて,高コストかつ高利回りな動作を増幅するための時間依存性の勾配更新を提案する。
また,早期に失敗するプログラムとほぼ正しくないプログラムを区別し,部分クレジットを提供する環境機器を提案する。
論文 参考訳(メタデータ) (2025-09-01T18:04:10Z) - Evaluating Large Language Models on Non-Code Software Engineering Tasks [4.381476817430934]
大規模言語モデル(LLM)は、コード理解と生成において顕著な能力を示している。
ソフトウェア工学言語理解(SELU)と呼ばれる最初の包括的なベンチマークを提示する。
SELUは、分類、回帰、名前付きエンティティ認識(NER)とマスケッド言語モデリング(MLM)のターゲットをカバーし、さまざまなソースからデータを引き出す。
論文 参考訳(メタデータ) (2025-06-12T15:52:32Z) - The Unreasonable Effectiveness of Model Merging for Cross-Lingual Transfer in LLMs [45.08958917457921]
大規模言語モデル(LLM)は、ハイソース言語以外のタスクで依然として苦戦している。
本研究では,タスク固有のポストトレーニングデータが不足している低リソース言語への言語間移動について検討する。
論文 参考訳(メタデータ) (2025-05-23T20:28:31Z) - Distilling LLM Agent into Small Models with Retrieval and Code Tools [65.73762766854192]
Agent Distillationは、推論能力とタスク解決の振る舞いを大きな言語モデルから小さな言語モデルに移行するためのフレームワークである。
その結果,SLMは0.5B,1.5B,3Bのパラメータで,次世代の1.5B,3B,7Bモデルと競合する性能が得られることがわかった。
論文 参考訳(メタデータ) (2025-05-23T08:20:15Z) - Fine-tuning a Large Language Model for Automating Computational Fluid Dynamics Simulations [11.902947290205645]
大規模言語モデル(LLM)は高度な科学計算を持ち、CFDでの使用は自動化されている。
ドメイン固有LLM適応に着目した新しいアプローチを提案する。
マルチエージェントフレームワークはプロセスをオーケストレーションし、入力を自律的に検証し、構成を生成し、シミュレーションを実行し、エラーを修正する。
論文 参考訳(メタデータ) (2025-04-13T14:35:30Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。