論文の概要: A2HCoder: An LLM-Driven Coding Agent for Hierarchical Algorithm-to-HDL Translation
- arxiv url: http://arxiv.org/abs/2508.10904v1
- Date: Tue, 29 Jul 2025 01:51:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-24 10:27:26.43765
- Title: A2HCoder: An LLM-Driven Coding Agent for Hierarchical Algorithm-to-HDL Translation
- Title(参考訳): A2HCoder:階層型アルゴリズム-HDL翻訳のためのLLM駆動型符号化エージェント
- Authors: Jie Lei, Ruofan Jia, J. Andrew Zhang, Hao Zhang,
- Abstract要約: 大規模言語モデル(LLM)を利用した階層型アルゴリズム-HDL符号化エージェントA2HCoderを提案する。
A2HCoderは複雑なアルゴリズムをモジュラー関数ブロックに分解し、コード生成を単純化し、一貫性を向上させる。
5G無線通信領域における実世界の展開事例を通してA2HCoderを検証する。
- 参考スコア(独自算出の注目度): 19.08920167503309
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In wireless communication systems, stringent requirements such as ultra-low latency and power consumption have significantly increased the demand for efficient algorithm-to-hardware deployment. However, a persistent and substantial gap remains between algorithm design and hardware implementation. Bridging this gap traditionally requires extensive domain expertise and time-consuming manual development, due to fundamental mismatches between high-level programming languages like MATLAB and hardware description languages (HDLs) such as Verilog-in terms of memory access patterns, data processing manners, and datatype representations. To address this challenge, we propose A2HCoder: a Hierarchical Algorithm-to-HDL Coding Agent, powered by large language models (LLMs), designed to enable agile and reliable algorithm-to-hardware translation. A2HCoder introduces a hierarchical framework that enhances both robustness and interpretability while suppressing common hallucination issues in LLM-generated code. In the horizontal dimension, A2HCoder decomposes complex algorithms into modular functional blocks, simplifying code generation and improving consistency. In the vertical dimension, instead of relying on end-to-end generation, A2HCoder performs step-by-step, fine-grained translation, leveraging external toolchains such as MATLAB and Vitis HLS for debugging and circuit-level synthesis. This structured process significantly mitigates hallucinations and ensures hardware-level correctness. We validate A2HCoder through a real-world deployment case in the 5G wireless communication domain, demonstrating its practicality, reliability, and deployment efficiency.
- Abstract(参考訳): 無線通信システムでは、超低レイテンシや電力消費といった厳しい要求により、効率的なアルゴリズム・ハードウエア配置の需要が大幅に増加した。
しかし、アルゴリズム設計とハードウェア実装の間には、永続的で実質的なギャップが残っている。
メモリアクセスパターン、データ処理の方法、データ型表現など、MATLABのようなハイレベルなプログラミング言語とハードウェア記述言語(HDL)の基本的なミスマッチのためである。
この課題に対処するために,我々は,大規模言語モデル(LLM)を利用した階層型アルゴリズム-HDL符号化エージェントA2HCoderを提案する。
A2HCoderは、LLM生成コードの一般的な幻覚を抑えながら、堅牢性と解釈可能性の両方を高める階層的なフレームワークを導入している。
水平次元では、A2HCoderは複雑なアルゴリズムをモジュラー関数ブロックに分解し、コード生成を単純化し、一貫性を向上させる。
垂直次元では、A2HCoderはエンド・ツー・エンド・ジェネレーションに頼るのではなく、MATLABやVitis HLSといった外部ツールチェーンを利用してステップバイステップできめ細かな翻訳を行い、デバッグや回路レベルの合成を行う。
この構造化プロセスは幻覚を著しく軽減し、ハードウェアレベルの正確性を保証する。
5G無線通信領域における実世界の展開事例を通してA2HCoderを検証し,その実用性,信頼性,展開効率を実証した。
関連論文リスト
- Large-Scale Model Enabled Semantic Communication Based on Robust Knowledge Distillation [53.16213723669751]
大規模モデル(LSM)は意味表現と理解に有効なフレームワークである。
しかしながら、それらの直接的なデプロイメントは、しばしば高い計算複雑性とリソース要求によって妨げられる。
本稿では,新しい知識蒸留に基づくセマンティックコミュニケーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-04T07:47:18Z) - Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - ComplexVCoder: An LLM-Driven Framework for Systematic Generation of Complex Verilog Code [9.68747119462712]
本稿では,複雑なVerilogコードの生成品質と効率を向上させるオープンソースフレームワークであるComplexVCoderを提案する。
具体的には、中間表現を利用した2段階生成機構を導入し、より構造化された自然言語記述から複雑なVerilog設計への遷移を可能にする。
さらに、ルールベースのアライメント手法とドメイン固有検索拡張生成(RAG)を導入し、合成コードの正確性をさらに向上する。
論文 参考訳(メタデータ) (2025-04-29T11:22:06Z) - CodeSwift: Accelerating LLM Inference for Efficient Code Generation [17.681848203476687]
コード生成に特化して設計された,高効率な推論高速化手法であるCodeSwiftを提案する。
CodeSwiftはマルチソースのデータストアを構築し、一般的な知識とプロジェクト固有の知識の両方へのアクセスを提供する。
実験の結果、CodeSwiftはリポジトリレベルのコード生成タスクとスタンドアロンコード生成タスクの自己回帰デコーディングと比較して、最大2.53倍と2.54倍のスピードアップに達することが示されている。
論文 参考訳(メタデータ) (2025-02-24T13:30:30Z) - Decoding at the Speed of Thought: Harnessing Parallel Decoding of Lexical Units for LLMs [57.27982780697922]
大規模言語モデルは、自然言語の理解と生成において例外的な能力を示した。
しかし、それらの生成速度は、その復号過程の本質的にシーケンシャルな性質によって制限される。
本稿では,データ駆動方式で実装された新しいデコーディング手法であるLexical Unit Decodingを紹介する。
論文 参考訳(メタデータ) (2024-05-24T04:35:13Z) - L2MAC: Large Language Model Automatic Computer for Extensive Code Generation [52.81694565226513]
トランスフォーマーベースの大規模言語モデル(LLM)は、基盤となるトランスフォーマーアーキテクチャの固定コンテキストウィンドウによって制約される。
本稿では,L2MACを提案する。L2MACは,LLMをベースとした汎用型自動計算機(von Neumann Architecture)フレームワークで,長期的かつ一貫した出力生成を実現する。
論文 参考訳(メタデータ) (2023-10-02T16:55:19Z) - Fixing Large Language Models' Specification Misunderstanding for Better Code Generation [13.494822086550604]
muFiXは、大きな言語モデル(LLM)のコード生成性能を改善する新しいプロンプト技術である。
まず、テストケース分析を利用して仕様の理解を得、自己改善プロセスを可能にする。
muFiXはさらに、提供された理解と実際の理解の間のギャップを減らす方向に向けた仕様理解を修正している。
論文 参考訳(メタデータ) (2023-09-28T02:58:07Z) - ProgSG: Cross-Modality Representation Learning for Programs in
Electronic Design Automation [38.023395256208055]
高レベル合成(HLS)により、開発者はCとC++のソフトウェアコード形式で高レベルな記述をコンパイルできる。
HLSツールは相変わらず、プラグマで表されるマイクロアーキテクチャの決定を必要とする。
本稿では,ソースコードシーケンスのモダリティとグラフのモダリティを深く,きめ細かな方法で相互に相互作用させることができるProgSGを提案する。
論文 参考訳(メタデータ) (2023-05-18T09:44:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。