論文の概要: Chip Placement with Diffusion
- arxiv url: http://arxiv.org/abs/2407.12282v1
- Date: Wed, 17 Jul 2024 03:02:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 18:38:37.211253
- Title: Chip Placement with Diffusion
- Title(参考訳): 拡散を伴うチップ配置
- Authors: Vint Lee, Chun Deng, Leena Elzeiny, Pieter Abbeel, John Wawrzynek,
- Abstract要約: マクロ配置 (Macro placement) は、2次元チップ上のマクロとして知られるコンポーネントの大規模なコレクションの物理的位置を定義する。
既存の学習ベースの手法は、強化学習に依存しており、エージェントの柔軟性が制限されるため、不足している。
本稿では,事前学習のための大規模合成データセットを生成するアルゴリズムとともに,デノナイズモデルのための新しいアーキテクチャを提案する。
我々は,我々のモデルが配置課題に対処できることを実証的に示し,最先端の手法と比較して配置ベンチマーク上での競合性能を達成することを実証した。
- 参考スコア(独自算出の注目度): 42.397340832801724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Macro placement is a vital step in digital circuit design that defines the physical location of large collections of components, known as macros, on a 2-dimensional chip. The physical layout obtained during placement determines key performance metrics of the chip, such as power consumption, area, and performance. Existing learning-based methods typically fall short because of their reliance on reinforcement learning, which is slow and limits the flexibility of the agent by casting placement as a sequential process. Instead, we use a powerful diffusion model to place all components simultaneously. To enable such models to train at scale, we propose a novel architecture for the denoising model, as well as an algorithm to generate large synthetic datasets for pre-training. We empirically show that our model can tackle the placement task, and achieve competitive performance on placement benchmarks compared to state-of-the-art methods.
- Abstract(参考訳): マクロ配置はデジタル回路設計において重要なステップであり、2次元チップ上のマクロとして知られるコンポーネントの大規模なコレクションの物理的な位置を定義する。
配置時に得られる物理的レイアウトは、消費電力、面積、性能などのチップの重要な性能指標を決定する。
既存の学習ベースの手法は、典型的には強化学習に依存しているため不足するが、これは遅く、シーケンシャルなプロセスとして配置をキャストすることでエージェントの柔軟性を制限している。
代わりに、すべてのコンポーネントを同時に配置するために強力な拡散モデルを使用します。
このようなモデルを大規模に訓練できるようにするため,本研究では,事前学習のための大規模な合成データセットを生成するアルゴリズムとともに,デノナイジングモデルのための新しいアーキテクチャを提案する。
我々は,我々のモデルが配置課題に対処できることを実証的に示し,最先端の手法と比較して配置ベンチマーク上での競合性能を達成することを実証した。
関連論文リスト
- MERLOT: A Distilled LLM-based Mixture-of-Experts Framework for Scalable Encrypted Traffic Classification [19.476061046309052]
本稿では,暗号化されたトラフィック分類に最適化された蒸留大言語モデルのスケーラブルな混合実験(MoE)による改良について述べる。
10のデータセットの実験では、最先端モデルよりも優れた、あるいは競合的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-11-20T03:01:41Z) - LowFormer: Hardware Efficient Design for Convolutional Transformer Backbones [10.435069781620957]
効率的な視覚バックボーンの研究は、畳み込みとトランスフォーマーブロックの混合モデルに進化しつつある。
我々は、MACではなく、実際のスループットとレイテンシの観点から、一般的なモジュールとアーキテクチャ設計の選択を分析します。
マクロデザインとマイクロデザインを組み合わせることで,LowFormerと呼ばれる,ハードウェア効率のよいバックボーンネットワークの新たなファミリを作ります。
論文 参考訳(メタデータ) (2024-09-05T12:18:32Z) - Learning to rank quantum circuits for hardware-optimized performance enhancement [0.0]
本稿では,論理的に等価な量子回路をランク付けするための機械学習に基づく手法を実験的に導入し,実験を行った。
提案手法をランダムなレイアウト選択とMapomaticと呼ばれる一般公開ベースラインの2つの一般的なアプローチと比較する。
我々の最良のモデルでは、ベースラインアプローチと比較して選択誤差が1.8タイムズ$減少し、ランダム選択と比較して3.2タイムズ$減少する。
論文 参考訳(メタデータ) (2024-04-09T18:00:01Z) - Majority Kernels: An Approach to Leverage Big Model Dynamics for Efficient Small Model Training [32.154166415680066]
蒸留、圧縮、量子化といった手法は、高性能な大きなモデルを利用してより小さな性能のモデルを誘導するのに役立つ。
本稿では、単一トレーニングランが同時に、より大きなパフォーマンスモデルをトレーニングし、より小さなデプロイメントモデルを導出できるという仮説を考察する。
論文 参考訳(メタデータ) (2024-02-07T17:07:41Z) - Bidirectional Knowledge Reconfiguration for Lightweight Point Cloud
Analysis [74.00441177577295]
ポイントクラウド分析は計算システムのオーバーヘッドに直面し、モバイルやエッジデバイスでの利用を制限する。
本稿では,軽量点雲モデルのための特徴蒸留について検討する。
本研究では,教師から生徒への情報的文脈的知識を抽出するための双方向知識再構成を提案する。
論文 参考訳(メタデータ) (2023-10-08T11:32:50Z) - Scaling Pre-trained Language Models to Deeper via Parameter-efficient
Architecture [68.13678918660872]
行列積演算子(MPO)に基づくより有能なパラメータ共有アーキテクチャを設計する。
MPO分解はパラメータ行列の情報を再編成し、2つの部分に分解することができる。
私たちのアーキテクチャは、モデルのサイズを減らすために、すべてのレイヤで中央テンソルを共有しています。
論文 参考訳(メタデータ) (2023-03-27T02:34:09Z) - On Joint Learning for Solving Placement and Routing in Chip Design [70.30640973026415]
本稿では,マクロや標準セルの配置に関するDeepPlaceによる共同学習手法を提案する。
また,DeepPRと呼ばれるマクロ配置とルーティングの両方を満たすための強化学習による共同学習手法も開発している。
本手法は,経験から効果的に学習し,数時間のトレーニングで標準細胞配置の中間配置を提供する。
論文 参考訳(メタデータ) (2021-10-30T11:41:49Z) - Style Curriculum Learning for Robust Medical Image Segmentation [62.02435329931057]
深部セグメンテーションモデルは、トレーニングデータセットとテストデータセットの間の画像強度の分散シフトによって、しばしば劣化する。
本稿では,そのような分散シフトが存在する場合に,ロバストなセグメンテーションを確保するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-01T08:56:24Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。