論文の概要: Chip Placement with Diffusion Models
- arxiv url: http://arxiv.org/abs/2407.12282v2
- Date: Fri, 07 Mar 2025 05:47:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 19:13:14.603881
- Title: Chip Placement with Diffusion Models
- Title(参考訳): 拡散モデルを用いたチップ配置
- Authors: Vint Lee, Minh Nguyen, Leena Elzeiny, Chun Deng, Pieter Abbeel, John Wawrzynek,
- Abstract要約: 我々は、強化学習の代わりにガイドサンプリングを用いて、新しい回路をゼロショットで配置できる拡散モデルを訓練する。
我々は、データセット生成アルゴリズムの設計決定を経験的に研究し、一般化を可能にするいくつかの重要な要因を同定する。
提案モデルでは,非表示でリアルな回路上に高品質な配置を生成し,最先端の手法と比較して,配置ベンチマーク上での競合性能を実現している。
- 参考スコア(独自算出の注目度): 40.503264193497124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Macro placement is a vital step in digital circuit design that defines the physical location of large collections of components, known as macros, on a 2D chip. Because key performance metrics of the chip are determined by the placement, optimizing it is crucial. Existing learning-based methods typically fall short because of their reliance on reinforcement learning (RL), which is slow and struggles to generalize, requiring online training on each new circuit. Instead, we train a diffusion model capable of placing new circuits zero-shot, using guided sampling in lieu of RL to optimize placement quality. To enable such models to train at scale, we designed a capable yet efficient architecture for the denoising model, and propose a novel algorithm to generate large synthetic datasets for pre-training. To allow zero-shot transfer to real circuits, we empirically study the design decisions of our dataset generation algorithm, and identify several key factors enabling generalization. When trained on our synthetic data, our models generate high-quality placements on unseen, realistic circuits, achieving competitive performance on placement benchmarks compared to state-of-the-art methods.
- Abstract(参考訳): マクロ配置はデジタル回路設計において重要なステップであり、2Dチップ上のマクロとして知られる大規模なコンポーネントの物理的な位置を定義する。
チップの主な性能指標は配置によって決定されるため、最適化は極めて重要である。
既存の学習ベースの手法は、強化学習(RL)に依存しているため、一般的には不足している。
代わりに、配置品質を最適化するためにRLの代わりにガイドサンプリングを用いて、新しい回路をゼロショットで配置できる拡散モデルを訓練する。
このようなモデルを大規模に訓練できるようにするため,我々は,デノナイジングモデルのための有能で効率的なアーキテクチャを設計し,事前学習のための大規模な合成データセットを生成する新しいアルゴリズムを提案する。
実回路へのゼロショット転送を可能にするため、データセット生成アルゴリズムの設計決定を実証的に研究し、一般化を可能にするいくつかの重要な要因を同定する。
我々のモデルは、我々の合成データに基づいてトレーニングすると、目に見えないリアルな回路上に高品質な配置を生成し、最先端の手法と比較して、配置ベンチマーク上での競合性能を達成する。
関連論文リスト
- SMPLest-X: Ultimate Scaling for Expressive Human Pose and Shape Estimation [81.36747103102459]
表現的人間のポーズと形状推定(EHPS)は、身体、手、顔の動きを多数の応用で統合する。
現在の最先端の手法は、限定されたデータセット上で革新的なアーキテクチャ設計を訓練することに焦点を当てている。
本稿では,EHPSのスケールアップが一般基盤モデルのファミリに与える影響について検討する。
論文 参考訳(メタデータ) (2025-01-16T18:59:46Z) - MERLOT: A Distilled LLM-based Mixture-of-Experts Framework for Scalable Encrypted Traffic Classification [19.476061046309052]
本稿では,暗号化されたトラフィック分類に最適化された蒸留大言語モデルのスケーラブルな混合実験(MoE)による改良について述べる。
10のデータセットの実験では、最先端モデルよりも優れた、あるいは競合的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-11-20T03:01:41Z) - LowFormer: Hardware Efficient Design for Convolutional Transformer Backbones [10.435069781620957]
効率的な視覚バックボーンの研究は、畳み込みとトランスフォーマーブロックの混合モデルに進化しつつある。
我々は、MACではなく、実際のスループットとレイテンシの観点から、一般的なモジュールとアーキテクチャ設計の選択を分析します。
マクロデザインとマイクロデザインを組み合わせることで,LowFormerと呼ばれる,ハードウェア効率のよいバックボーンネットワークの新たなファミリを作ります。
論文 参考訳(メタデータ) (2024-09-05T12:18:32Z) - Learning to rank quantum circuits for hardware-optimized performance enhancement [0.0]
本稿では,論理的に等価な量子回路をランク付けするための機械学習に基づく手法を実験的に導入し,実験を行った。
提案手法をランダムなレイアウト選択とMapomaticと呼ばれる一般公開ベースラインの2つの一般的なアプローチと比較する。
我々の最良のモデルでは、ベースラインアプローチと比較して選択誤差が1.8タイムズ$減少し、ランダム選択と比較して3.2タイムズ$減少する。
論文 参考訳(メタデータ) (2024-04-09T18:00:01Z) - Take the Bull by the Horns: Hard Sample-Reweighted Continual Training
Improves LLM Generalization [165.98557106089777]
大きな言語モデル(LLM)の能力を高めることが大きな課題だ。
本研究は,従来の事前学習データセットを用いたLCMの光連続訓練に関する実証的戦略から始まった。
次に、この戦略をインスタンス重み付け分散ロバスト最適化の原則化されたフレームワークに定式化します。
論文 参考訳(メタデータ) (2024-02-22T04:10:57Z) - Majority Kernels: An Approach to Leverage Big Model Dynamics for Efficient Small Model Training [32.154166415680066]
蒸留、圧縮、量子化といった手法は、高性能な大きなモデルを利用してより小さな性能のモデルを誘導するのに役立つ。
本稿では、単一トレーニングランが同時に、より大きなパフォーマンスモデルをトレーニングし、より小さなデプロイメントモデルを導出できるという仮説を考察する。
論文 参考訳(メタデータ) (2024-02-07T17:07:41Z) - PerfRL: A Small Language Model Framework for Efficient Code Optimization [14.18092813639534]
本稿では,コード最適化の問題に対処する革新的なフレームワークPerfRLを紹介する。
我々のフレームワークは、小型言語モデル(SLM)と強化学習(RL)の機能を活用している。
提案手法は,より短いトレーニング時間とより小さな事前学習モデルを用いて,最先端モデルと比較して,類似あるいはより良い結果が得られる。
論文 参考訳(メタデータ) (2023-12-09T19:50:23Z) - Bidirectional Knowledge Reconfiguration for Lightweight Point Cloud
Analysis [74.00441177577295]
ポイントクラウド分析は計算システムのオーバーヘッドに直面し、モバイルやエッジデバイスでの利用を制限する。
本稿では,軽量点雲モデルのための特徴蒸留について検討する。
本研究では,教師から生徒への情報的文脈的知識を抽出するための双方向知識再構成を提案する。
論文 参考訳(メタデータ) (2023-10-08T11:32:50Z) - Learning to Design Analog Circuits to Meet Threshold Specifications [2.5818330243826924]
本稿では,シミュレーションデータから,しきい値仕様を満たす回路の設計を訓練可能なデータセットを生成する手法を提案する。
提案手法は,5%の誤差マージンで90%以上の成功率を達成するとともに,データ効率を1桁以上の精度で向上することを示す。
論文 参考訳(メタデータ) (2023-07-25T23:25:05Z) - Scaling Pre-trained Language Models to Deeper via Parameter-efficient
Architecture [68.13678918660872]
行列積演算子(MPO)に基づくより有能なパラメータ共有アーキテクチャを設計する。
MPO分解はパラメータ行列の情報を再編成し、2つの部分に分解することができる。
私たちのアーキテクチャは、モデルのサイズを減らすために、すべてのレイヤで中央テンソルを共有しています。
論文 参考訳(メタデータ) (2023-03-27T02:34:09Z) - FreeREA: Training-Free Evolution-based Architecture Search [17.202375422110553]
FreeREAは、トレーニングなしメトリクスの最適化組み合わせを利用してアーキテクチャをランク付けする、独自のセルベースの進化NASアルゴリズムである。
本実験はNAS-Bench-101とNATS-Benchの共通ベンチマークを用いて,フリーレアがモデル自動設計のための高速で効率的かつ効果的な探索手法であることを実証した。
論文 参考訳(メタデータ) (2022-06-17T11:16:28Z) - RLFlow: Optimising Neural Network Subgraph Transformation with World
Models [0.0]
本稿では,ニューラルネットワークのアーキテクチャを最適化するためのモデルベースエージェントを提案する。
提案手法は, 共通の畳み込みネットワーク上での最先端技術の性能に適合し, トランスフォーマースタイルのアーキテクチャでは最大5%性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-03T11:52:54Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - On Joint Learning for Solving Placement and Routing in Chip Design [70.30640973026415]
本稿では,マクロや標準セルの配置に関するDeepPlaceによる共同学習手法を提案する。
また,DeepPRと呼ばれるマクロ配置とルーティングの両方を満たすための強化学習による共同学習手法も開発している。
本手法は,経験から効果的に学習し,数時間のトレーニングで標準細胞配置の中間配置を提供する。
論文 参考訳(メタデータ) (2021-10-30T11:41:49Z) - Style Curriculum Learning for Robust Medical Image Segmentation [62.02435329931057]
深部セグメンテーションモデルは、トレーニングデータセットとテストデータセットの間の画像強度の分散シフトによって、しばしば劣化する。
本稿では,そのような分散シフトが存在する場合に,ロバストなセグメンテーションを確保するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-01T08:56:24Z) - LoRD-Net: Unfolded Deep Detection Network with Low-Resolution Receivers [104.01415343139901]
本稿では,1ビット計測から情報シンボルを復元する「LoRD-Net」というディープ検出器を提案する。
LoRD-Netは、関心のシグナルを回復するためのタスクベースのアーキテクチャである。
無線通信における1ビット信号回復のためのレシーバアーキテクチャの評価を行った。
論文 参考訳(メタデータ) (2021-02-05T04:26:05Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。