論文の概要: PrefixGPT: Prefix Adder Optimization by a Generative Pre-trained Transformer
- arxiv url: http://arxiv.org/abs/2511.19472v2
- Date: Wed, 26 Nov 2025 02:21:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 14:46:34.413988
- Title: PrefixGPT: Prefix Adder Optimization by a Generative Pre-trained Transformer
- Title(参考訳): PrefixGPT: 生成前訓練変圧器によるプレフィックス加算器最適化
- Authors: Ruogu Ding, Xin Ning, Ulf Schlichtmann, Weikang Qian,
- Abstract要約: プリフィックス加算器は計算集約的なアプリケーションで高速に使用される。
本稿では,最適化プレフィックス加算器をスクラッチから直接生成するGPT(Generative Pre-trained Transformer)であるPrefixGPTを紹介する。
- 参考スコア(独自算出の注目度): 10.369611915184604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prefix adders are widely used in compute-intensive applications for their high speed. However, designing optimized prefix adders is challenging due to strict design rules and an exponentially large design space. We introduce PrefixGPT, a generative pre-trained Transformer (GPT) that directly generates optimized prefix adders from scratch. Our approach represents an adder's topology as a two-dimensional coordinate sequence and applies a legality mask during generation, ensuring every design is valid by construction. PrefixGPT features a customized decoder-only Transformer architecture. The model is first pre-trained on a corpus of randomly synthesized valid prefix adders to learn design rules and then fine-tuned to navigate the design space for optimized design quality. Compared with existing works, PrefixGPT not only finds a new optimal design with a 7.7% improved area-delay product (ADP) but exhibits superior exploration quality, lowering the average ADP by up to 79.1%. This demonstrates the potential of GPT-style models to first master complex hardware design principles and then apply them for more efficient design optimization.
- Abstract(参考訳): プリフィックス加算器は計算集約的なアプリケーションで高速に使用される。
しかし、厳密な設計規則と指数関数的に大きな設計空間のために、最適化されたプレフィックス加算器を設計することは困難である。
本稿では,最適化プレフィックス加算器をスクラッチから直接生成するGPT(Generative Pre-trained Transformer)であるPrefixGPTを紹介する。
提案手法は加算器のトポロジを2次元座標列として表現し, 生成時に法則マスクを適用し, 全ての設計が構築によって有効であることを保証する。
PrefixGPTはカスタマイズされたデコーダのみのTransformerアーキテクチャを備えている。
このモデルは、まずランダムに合成された有効なプレフィックス加算器のコーパスで事前訓練され、設計規則を学習した後、最適化された設計品質のためにデザイン空間をナビゲートするように微調整される。
既存の研究と比較すると、PrefixGPTは7.7%改良されたエリア遅延生成物(ADP)を備えた新しい最適設計を見出しただけでなく、調査品質も優れ、平均的なADPを79.1%まで下げた。
これは、GPTスタイルのモデルが、まず複雑なハードウェア設計原則をマスターし、より効率的な設計最適化にそれらを適用する可能性を示している。
関連論文リスト
- POME: Post Optimization Model Edit via Muon-style Projection [74.73326657229347]
POME(Post-Optimization Model Edit)は、微調整された大規模言語モデルの性能を向上させる。
デルタW$のミューオン式のプロジェクションを使い、微調整された重量と事前訓練された重量の違いを区別する。
単純な後処理ステップとして、POMEはトレーニングパイプラインから完全に分離される。
論文 参考訳(メタデータ) (2025-10-08T04:20:11Z) - PrefixAgent: An LLM-Powered Design Framework for Efficient Prefix Adder Optimization [11.652417515791633]
PrefixAgentは、大きな言語モデル(LLM)を使った、効率的なプレフィックス加算器最適化のためのフレームワークである。
バックボーン合成や構造改善を含むサブタスクに問題を再構成し、探索空間を効果的に削減する。
実験の結果,PrefixAgentはベースライン法に比べて一定の面積のプレフィックス加算器を合成することがわかった。
論文 参考訳(メタデータ) (2025-07-08T16:14:17Z) - PearSAN: A Machine Learning Method for Inverse Design using Pearson Correlated Surrogate Annealing [66.27103948750306]
PearSANは、大きな設計空間を持つ逆設計問題に適用可能な機械学習支援最適化アルゴリズムである。
ピアソン相関代理モデルを用いて、真の設計計量のメリットの図形を予測する。
最先端の最大設計効率は97%で、少なくとも以前の方法よりも桁違いに高速である。
論文 参考訳(メタデータ) (2024-12-26T17:02:19Z) - Video Prediction Transformers without Recurrence or Convolution [65.93130697098658]
我々は、Gated Transformerを完全にベースとしたフレームワークであるPredFormerを提案する。
本稿では,映像予測の文脈における3次元注意の包括的分析を行う。
精度と効率の両面で大きな改善は、PredFormerの可能性を強調している。
論文 参考訳(メタデータ) (2024-10-07T03:52:06Z) - Towards Adaptive Prefix Tuning for Parameter-Efficient Language Model
Fine-tuning [32.84435258519842]
ゲート機構により,粒度の細かいトークンレベルと粗い層レベルの両方でプレフィックスを調整できる適応型プリフィックスチューニング(APT)を提案する。
SuperGLUEとNERデータセットの実験は、APTの有効性を示している。
論文 参考訳(メタデータ) (2023-05-24T14:51:01Z) - End-to-end Graph-constrained Vectorized Floorplan Generation with
Panoptic Refinement [16.103152098205566]
本研究では,1次元ベクトルのシーケンスとしてフロアプランを合成することを目的としている。
最初の段階では,ユーザが入力した部屋接続グラフをGCN(Graphal Network)でエンコードし,自動回帰トランスフォーマネットワークを適用して初期フロアプランを生成する。
初期設計を洗練し、より視覚的に魅力的なフロアプランを生成するために、GCNとトランスフォーマーネットワークからなる新しい汎視補正ネットワーク(PRN)を提案する。
論文 参考訳(メタデータ) (2022-07-27T03:19:20Z) - Designing MacPherson Suspension Architectures using Bayesian
Optimization [21.295015276123962]
コンプライアンステストは、まず、規律モデルを用いたコンピュータシミュレーションによって行われる。
このシミュレーションを通した設計は、物理的プロトタイピングとして考慮される。
提案手法は汎用的で,スケーラブルで,効率的であることを示す。
論文 参考訳(メタデータ) (2022-06-17T21:50:25Z) - Towards Learning Universal Hyperparameter Optimizers with Transformers [57.35920571605559]
我々は,テキストベースのトランスフォーマーHPOフレームワークであるOptFormerを紹介した。
実験の結果,OptFormerは少なくとも7種類のHPOアルゴリズムを模倣できることがわかった。
論文 参考訳(メタデータ) (2022-05-26T12:51:32Z) - An AI-Assisted Design Method for Topology Optimization Without
Pre-Optimized Training Data [68.8204255655161]
トポロジ最適化に基づくAI支援設計手法を提示し、最適化された設計を直接的に得ることができる。
設計は、境界条件と入力データとしての充填度に基づいて、人工ニューラルネットワーク、予測器によって提供される。
論文 参考訳(メタデータ) (2020-12-11T14:33:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。