論文の概要: MaskPlace: Fast Chip Placement via Reinforced Visual Representation
Learning
- arxiv url: http://arxiv.org/abs/2211.13382v1
- Date: Thu, 24 Nov 2022 02:22:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 16:28:58.764069
- Title: MaskPlace: Fast Chip Placement via Reinforced Visual Representation
Learning
- Title(参考訳): maskplace:強化視覚表現学習による高速チップ配置
- Authors: Yao Lai, Yao Mu, Ping Luo
- Abstract要約: この作業では、MaskPlaceを使用して、有効なチップレイアウト設計を数時間以内に自動生成する。
チップ上の数百万のモジュールを包括的に記述するために、ピクセルレベルの視覚表現を学習する問題として配置を再放送する。
チップをハイパーグラフとして表現する最近の手法よりも優れています。
- 参考スコア(独自算出の注目度): 18.75057105112443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Placement is an essential task in modern chip design, aiming at placing
millions of circuit modules on a 2D chip canvas. Unlike the human-centric
solution, which requires months of intense effort by hardware engineers to
produce a layout to minimize delay and energy consumption, deep reinforcement
learning has become an emerging autonomous tool. However, the learning-centric
method is still in its early stage, impeded by a massive design space of size
ten to the order of a few thousand. This work presents MaskPlace to
automatically generate a valid chip layout design within a few hours, whose
performance can be superior or comparable to recent advanced approaches. It has
several appealing benefits that prior arts do not have. Firstly, MaskPlace
recasts placement as a problem of learning pixel-level visual representation to
comprehensively describe millions of modules on a chip, enabling placement in a
high-resolution canvas and a large action space. It outperforms recent methods
that represent a chip as a hypergraph. Secondly, it enables training the policy
network by an intuitive reward function with dense reward, rather than a
complicated reward function with sparse reward from previous methods. Thirdly,
extensive experiments on many public benchmarks show that MaskPlace outperforms
existing RL approaches in all key performance metrics, including wirelength,
congestion, and density. For example, it achieves 60%-90% wirelength reduction
and guarantees zero overlaps. We believe MaskPlace can improve AI-assisted chip
layout design. The deliverables are released at
https://laiyao1.github.io/maskplace.
- Abstract(参考訳): 2Dチップキャンバスに数百万の回路モジュールを配置することを目的とした、現代のチップ設計において、プレースメントは必須のタスクである。
ハードウェアエンジニアが遅延とエネルギー消費を最小限に抑えるためのレイアウトを作るのに、数ヶ月の努力を要する人間中心のソリューションとは異なり、深層強化学習は新たな自律ツールになりつつある。
しかし、学習中心の手法はまだ初期段階にあり、10の巨大なデザイン空間から数千のオーダーに妨げられている。
この研究により、MaskPlaceは数時間以内に有効なチップレイアウト設計を自動的に生成し、その性能は最近の高度なアプローチに匹敵する可能性がある。
先行芸術にはないいくつかの魅力ある利点がある。
まず、maskplaceは配置をピクセルレベルの視覚的表現を学ぶ問題として再キャストし、チップ上に何百万ものモジュールを包括的に記述し、高解像度のキャンバスと大きなアクションスペースに配置できるようにする。
チップをハイパーグラフとして表現する最近の手法よりも優れています。
第2に、従来の手法から疎い報酬を持つ複雑な報酬関数ではなく、直感的な報酬関数による政策ネットワークのトレーニングを可能にする。
第3に、多くの公開ベンチマークでの広範な実験により、MaskPlaceは、ワイヤ長、混雑、密度を含むすべての主要なパフォーマンス指標において、既存のRLアプローチよりも優れていることが示されている。
例えば、60~90%の線幅削減を達成し、重複をゼロにする。
MaskPlaceはAIによるチップレイアウト設計を改善することができると考えています。
deliverablesはhttps://laiyao1.github.io/maskplaceでリリースされている。
関連論文リスト
- Triple Point Masking [49.39218611030084]
既存の3Dマスク学習手法は、限られたデータの下でパフォーマンスボトルネックに遭遇する。
我々は、マスク付きオートエンコーダの事前学習のためのスケーラブルなフレームワークとして、TPMと呼ばれるトリプルポイントマスキング方式を導入する。
大規模な実験により,提案したTPMを組み込んだ4つのベースラインが,下流タスクの総合的な性能向上を実現することが示された。
論文 参考訳(メタデータ) (2024-09-26T05:33:30Z) - MaDi: Learning to Mask Distractions for Generalization in Visual Deep
Reinforcement Learning [40.7452827298478]
本稿では,報酬信号のみによる注意を隠蔽する新しいアルゴリズムであるMaDiを紹介する。
MaDiでは、強化学習剤の従来のアクター・クリティカルな構造は、3番目の兄弟であるMaskerによって補完される。
提案アルゴリズムは有用なマスクを用いてエージェントの焦点を改良し,その効率の良いMaskerネットワークは元の構造に0.2%以上のパラメータしか加えない。
論文 参考訳(メタデータ) (2023-12-23T20:11:05Z) - Vision Transformer with Super Token Sampling [93.70963123497327]
多くの視覚タスクにおいて、視覚変換器は印象的なパフォーマンスを達成した。
浅い層のために局所的な特徴を捉える際に、高い冗長性に悩まされる可能性がある。
スーパートークンは、視覚的コンテンツの意味的に意味のあるテッセルレーションを提供しようとする。
論文 参考訳(メタデータ) (2022-11-21T03:48:13Z) - Training Your Sparse Neural Network Better with Any Mask [106.134361318518]
高品質で独立したトレーニング可能なスパースマスクを作成するために、大規模なニューラルネットワークをプルーニングすることが望ましい。
本稿では、デフォルトの高密度ネットワークトレーニングプロトコルから逸脱するためにスパーストレーニングテクニックをカスタマイズできる別の機会を示す。
我々の新しいスパーストレーニングレシピは、スクラッチから様々なスパースマスクでトレーニングを改善するために一般的に適用されます。
論文 参考訳(メタデータ) (2022-06-26T00:37:33Z) - Routing and Placement of Macros using Deep Reinforcement Learning [0.0]
我々は、チップネットリストのノードをチップキャンバスに配置するようにモデルを訓練する。
私たちは、さまざまな入力ネットリストにわたってエージェントに正確に報酬を与えるニューラルネットワークを構築したいと考えています。
論文 参考訳(メタデータ) (2022-05-19T02:40:58Z) - Masked Autoencoders Are Scalable Vision Learners [60.97703494764904]
Masked Autoencoders (MAE) は、コンピュータビジョンのためのスケーラブルな自己教師型学習システムである。
我々は入力画像のランダムなパッチを隠蔽し、欠落したピクセルを再構成する。
これら2つの設計を結合することで,大規模モデルを効率的かつ効率的にトレーニングすることが可能になります。
論文 参考訳(メタデータ) (2021-11-11T18:46:40Z) - KSM: Fast Multiple Task Adaption via Kernel-wise Soft Mask Learning [49.77278179376902]
Deep Neural Networks (DNN)は、新しいタスクを学ぶときの以前のタスクに関する知識を忘れることができ、これはtextitcatastrophic forgettingとして知られている。
最近の連続学習手法は、玩具サイズのデータセットにおける破滅的な問題を緩和することができる。
我々は,各タスクに対して,カーネルワイドなハイブリッドな2値マスクと実値のソフトマスクを学習する,textit- Kernel-wise Soft Mask (KSM) と呼ばれる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2020-09-11T21:48:39Z) - Chip Placement with Deep Reinforcement Learning [40.952111701288125]
チップ配置に対する学習に基づくアプローチを提案する。
従来の方法とは異なり、私たちのアプローチは過去の経験から学び、時間とともに改善する能力を持っています。
6時間以内に、現代の加速器ネットリストに匹敵する超人的あるいは同等の配置を生成できる。
論文 参考訳(メタデータ) (2020-04-22T17:56:07Z) - BlendMask: Top-Down Meets Bottom-Up for Instance Segmentation [103.74690082121079]
本研究では,インスタンスレベルの情報とセマンティックな情報と,低レベルの微細な粒度を効果的に組み合わせることで,マスク予測の改善を実現する。
私たちの主な貢献は、トップダウンとボトムアップの両方のインスタンスセグメンテーションアプローチからインスピレーションを得たブレンダーモジュールです。
BlendMaskは、非常に少ないチャネルで、ピクセルあたりの高密度な位置感受性インスタンス機能を効果的に予測し、単一の畳み込み層で各インスタンスの注意マップを学習することができる。
論文 参考訳(メタデータ) (2020-01-02T03:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。