論文の概要: ORFS-agent: Tool-Using Agents for Chip Design Optimization
- arxiv url: http://arxiv.org/abs/2506.08332v1
- Date: Tue, 10 Jun 2025 01:38:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:40.97487
- Title: ORFS-agent: Tool-Using Agents for Chip Design Optimization
- Title(参考訳): ORFSエージェント:チップ設計最適化のためのツール利用エージェント
- Authors: Amur Ghose, Andrew B. Kahng, Sayak Kundu, Zhiang Wang,
- Abstract要約: 大規模言語モデル(LLM)は、このような高次元最適化タスク内で学習と推論を行う新しい機会を提供する。
LLMをベースとした反復最適化エージェントORFS-agentを導入し,パラメータチューニングをオープンソースのハードウェア設計フローで自動化する。
2つの異なる技術ノードと様々な回路ベンチマークに関する実証的な評価は、ORFSエージェントがルーティングされたワイヤ長と有効クロック期間の両方を13%以上改善できることを示している。
- 参考スコア(独自算出の注目度): 0.8088986164437757
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning has been widely used to optimize complex engineering workflows across numerous domains. In the context of integrated circuit design, modern flows (e.g., going from a register-transfer level netlist to physical layouts) involve extensive configuration via thousands of parameters, and small changes to these parameters can have large downstream impacts on desired outcomes - namely design performance, power, and area. Recent advances in Large Language Models (LLMs) offer new opportunities for learning and reasoning within such high-dimensional optimization tasks. In this work, we introduce ORFS-agent, an LLM-based iterative optimization agent that automates parameter tuning in an open-source hardware design flow. ORFS-agent adaptively explores parameter configurations, demonstrating clear improvements over standard Bayesian optimization approaches in terms of resource efficiency and final design metrics. Our empirical evaluations on two different technology nodes and a range of circuit benchmarks indicate that ORFS-agent can improve both routed wirelength and effective clock period by over 13%, all while using 40% fewer optimization iterations. Moreover, by following natural language objectives to trade off certain metrics for others, ORFS-agent demonstrates a flexible and interpretable framework for multi-objective optimization. Crucially, RFS-agent is modular and model-agnostic, and can be plugged in to any frontier LLM without any further fine-tuning.
- Abstract(参考訳): 機械学習は、多くのドメインにわたる複雑なエンジニアリングワークフローの最適化に広く使用されている。
集積回路設計の文脈では、現代のフロー(例えばレジスタ・トランスファーレベルのネットリストから物理レイアウトへ)は数千のパラメータを通して広範な構成を伴い、これらのパラメータへの小さな変更は、望ましい結果(設計性能、電力、面積)に大きなダウンストリームの影響をもたらす可能性がある。
大規模言語モデル(LLM)の最近の進歩は、そのような高次元最適化タスクにおいて学習と推論の新たな機会を提供する。
本研究では,LLMに基づく反復最適化エージェントORFS-agentを導入し,パラメータチューニングをオープンソースのハードウェア設計フローで自動化する。
ORFS-agentはパラメータ構成を適応的に検討し、リソース効率と最終的な設計基準の観点から標準的なベイズ最適化アプローチよりも明確に改善されていることを示す。
2つの異なる技術ノードと様々な回路ベンチマークに関する実証的な評価は、ORFSエージェントが、最適化イテレーションを40%削減しながら、ルーティングされたワイヤ長と有効クロック期間の両方を13%以上改善できることを示している。
さらに、あるメトリクスを他と交換するために自然言語の目的に従うことで、ORFS-agentは、多目的最適化のための柔軟で解釈可能なフレームワークを実証する。
重要なことは、RCSエージェントはモジュラーでモデルに依存しないため、いかなるフロンティアLCMにも追加の微調整なしで接続することができる。
関連論文リスト
- Optuna vs Code Llama: Are LLMs a New Paradigm for Hyperparameter Tuning? [42.362388367152256]
大規模言語モデル(LLM)は、LoRAを使用してパラメータ効率の良いCode Llamaを微調整するために使用される。
提案手法は,演算オーバーヘッドを著しく低減しつつ,ルート平均角誤差(RMSE)の点で競争力や優位性を実現する。
論文 参考訳(メタデータ) (2025-04-08T13:15:47Z) - A Survey on the Optimization of Large Language Model-based Agents [16.733092886211097]
大規模言語モデル(LLM)は様々な分野で広く採用されており、自律的な意思決定や対話的なタスクに欠かせないものとなっている。
しかしながら、現在の作業は通常、バニラLLMに適用された迅速な設計や微調整戦略に依存している。
LLMに基づくエージェント最適化手法の総合的なレビューを行い、パラメータ駆動型およびパラメータフリーな手法に分類する。
論文 参考訳(メタデータ) (2025-03-16T10:09:10Z) - IMPROVE: Iterative Model Pipeline Refinement and Optimization Leveraging LLM Experts [40.98057887166546]
機械学習のワークフローを自動化するための有望なソリューションとして、大規模言語モデル(LLM)エージェントが登場した。
LLM駆動のMLパイプライン設計のための新しい戦略であるIterative Refinementを紹介します。
実際のトレーニングフィードバックに基づいて個々のコンポーネントを体系的に更新することにより、イテレーティブリファインメントはモデル全体のパフォーマンスを改善する。
論文 参考訳(メタデータ) (2025-02-25T01:52:37Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
グラディエントにインスパイアされた Prompt ベースの GPO を開発した。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z) - AutoPEFT: Automatic Configuration Search for Parameter-Efficient
Fine-Tuning [77.61565726647784]
ニューラルアーキテクチャ検索の進歩により,自動PEFT設定選択のためのAutoPEFTを提案する。
本稿では,AutoPEFTが検出した構成が既存のPEFT法よりも大幅に優れており,FFTと同等かそれ以上であることを示す。
論文 参考訳(メタデータ) (2023-01-28T08:51:23Z) - Multi-Agent Reinforcement Learning for Microprocessor Design Space
Exploration [71.95914457415624]
マイクロプロセッサアーキテクトは、高性能でエネルギー効率の追求において、ドメイン固有のカスタマイズにますます頼っている。
この問題に対処するために,Multi-Agent RL (MARL) を利用した別の定式化を提案する。
評価の結果,MARLの定式化は単エージェントRLのベースラインよりも一貫して優れていた。
論文 参考訳(メタデータ) (2022-11-29T17:10:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。