論文の概要: PrefixAgent: An LLM-Powered Design Framework for Efficient Prefix Adder Optimization
- arxiv url: http://arxiv.org/abs/2507.06127v1
- Date: Tue, 08 Jul 2025 16:14:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.335234
- Title: PrefixAgent: An LLM-Powered Design Framework for Efficient Prefix Adder Optimization
- Title(参考訳): PrefixAgent: 効率的なプレフィックスアダ最適化のためのLLM駆動設計フレームワーク
- Authors: Dongsheng Zuo, Jiadong Zhu, Yang Luo, Yuzhe Ma,
- Abstract要約: PrefixAgentは、大きな言語モデル(LLM)を使った、効率的なプレフィックス加算器最適化のためのフレームワークである。
バックボーン合成や構造改善を含むサブタスクに問題を再構成し、探索空間を効果的に削減する。
実験の結果,PrefixAgentはベースライン法に比べて一定の面積のプレフィックス加算器を合成することがわかった。
- 参考スコア(独自算出の注目度): 11.652417515791633
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prefix adders are fundamental arithmetic circuits, but their design space grows exponentially with bit-width, posing significant optimization challenges. Previous works face limitations in performance, generalization, and scalability. To address these challenges, we propose PrefixAgent, a large language model (LLM)-powered framework that enables efficient prefix adder optimization. Specifically, PrefixAgent reformulates the problem into subtasks including backbone synthesis and structure refinement, which effectively reduces the search space. More importantly, this new design perspective enables us to efficiently collect enormous high-quality data and reasoning traces with E-graph, which further results in an effective fine-tuning of LLM. Experimental results show that PrefixAgent synthesizes prefix adders with consistently smaller areas compared to baseline methods, while maintaining scalability and generalization in commercial EDA flows.
- Abstract(参考訳): プリフィックス加算器は基本的な演算回路であるが、設計空間はビット幅で指数関数的に成長し、重要な最適化課題を呈する。
これまでの作業は、パフォーマンス、一般化、スケーラビリティの制限に直面していた。
これらの課題に対処するため,大規模言語モデル(LLM)を利用した効率的なプレフィックスアプタ最適化を実現するPrefixAgentを提案する。
具体的には、PrefixAgentは問題をバックボーン合成や構造改善を含むサブタスクに再構成し、探索空間を効果的に削減する。
さらに、この新たな設計視点により、Eグラフによる膨大な高品質なデータと推論トレースを効率よく収集することができ、LLMを効果的に微調整することが可能になる。
実験の結果,PrefixAgentは,商用EDAフローのスケーラビリティと一般化を維持しつつ,ベースライン法に比べて一定の面積のプレフィックス加算器を合成することがわかった。
関連論文リスト
- MAO: Efficient Model-Agnostic Optimization of Prompt Tuning for Vision-Language Models [37.85176585188362]
即時チューニングのためのモデル非依存最適化(MAO)を提案する。
データ駆動型拡張フレームワークを導入し、初期データの分散を最適化する。
タスク固有の機能処理パイプラインを強化するために、Alterable Regularizationモジュールを組み込んだ。
論文 参考訳(メタデータ) (2025-03-23T17:59:33Z) - Towards Efficient Optimizer Design for LLM via Structured Fisher Approximation with a Low-Rank Extension [16.037614012166063]
本稿では,Fisher InformationMatrix (FIM) のレンズによる効率的な近似の体系設計に向けて一歩進める。
我々は、多くの最先端の効率的な近似を(フロベニウスノルムの下で)特定の構造的仮定を持つFIMの解と見なせることを示した。
一般性と効率性のバランスをとるための構造的仮定を慎重に選択することを含む,LLMの実用的効率に関する2つの設計勧告を提案する。
論文 参考訳(メタデータ) (2025-02-11T18:27:19Z) - Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark [166.40879020706151]
本稿では、微調整時のメモリコスト低減のためのソリューションとして、BPフリーゼロオーダー最適化(ZO)への移行を提案する。
従来のZO-SGD法とは異なり、我々の研究はより広い範囲のZO最適化手法に探索を広げる。
本研究は,タスクアライメントの重要性,前方勾配法の役割,アルゴリズムの複雑さと微調整性能のバランスについて,これまで見過ごされてきた最適化原理を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T14:08:48Z) - PhaseEvo: Towards Unified In-Context Prompt Optimization for Large
Language Models [9.362082187605356]
本稿では、LLMの生成能力と進化アルゴリズムのグローバル検索能力を組み合わせた効率的な自動プロンプト最適化フレームワークであるPhaseEvoについて述べる。
PhaseEvoは、優れた効率を維持しながら、最先端のベースライン手法を大きなマージンで大幅に上回っている。
論文 参考訳(メタデータ) (2024-02-17T17:47:10Z) - Functional Graphical Models: Structure Enables Offline Data-Driven Optimization [111.28605744661638]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。