論文の概要: Delving into Macro Placement with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2109.02587v1
- Date: Mon, 6 Sep 2021 16:30:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 16:54:50.870216
- Title: Delving into Macro Placement with Reinforcement Learning
- Title(参考訳): 強化学習によるマクロ配置への埋め込み
- Authors: Zixuan Jiang, Ebrahim Songhori, Shen Wang, Anna Goldie, Azalia
Mirhoseini, Joe Jiang, Young-Joon Lee, David Z. Pan
- Abstract要約: 強化学習環境に標準セルを配置するために,DREAMPlace をフォース指向方式に置き換える。
また,提案手法を他の学術的指標と比較した。
- 参考スコア(独自算出の注目度): 9.820395730612328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In physical design, human designers typically place macros via trial and
error, which is a Markov decision process. Reinforcement learning (RL) methods
have demonstrated superhuman performance on the macro placement. In this paper,
we propose an extension to this prior work (Mirhoseini et al., 2020). We first
describe the details of the policy and value network architecture. We replace
the force-directed method with DREAMPlace for placing standard cells in the RL
environment. We also compare our improved method with other academic placers on
public benchmarks.
- Abstract(参考訳): 物理的設計において、人間設計者は、通常、試行錯誤によってマクロを配置する。
強化学習(RL)法はマクロ配置において超人的性能を示す。
本稿では,この先行研究への拡張を提案する(mirhoseini et al., 2020)。
まず、ポリシーとバリューネットワークアーキテクチャの詳細を説明します。
本手法は,標準セルをrl環境に配置するためのドリームプレイスに置き換える。
また,提案手法を他の学術的指標と比較した。
関連論文リスト
- Non-Overlapping Placement of Macro Cells based on Reinforcement Learning in Chip Design [20.500468654567033]
本稿では,強化学習に基づくエンドツーエンド配置手法SRLPlacerを提案する。
パブリックベンチマークISPD2005で評価することにより,提案したSRLPlacerはマクロセル間の重複問題を効果的に解決することができる。
論文 参考訳(メタデータ) (2024-07-26T04:15:54Z) - Chip Placement with Diffusion [42.397340832801724]
マクロ配置 (Macro placement) は、2次元チップ上のマクロとして知られるコンポーネントの大規模なコレクションの物理的位置を定義する。
既存の学習ベースの手法は、強化学習に依存しており、エージェントの柔軟性が制限されるため、不足している。
本稿では,事前学習のための大規模合成データセットを生成するアルゴリズムとともに,デノナイズモデルのための新しいアーキテクチャを提案する。
我々は,我々のモデルが配置課題に対処できることを実証的に示し,最先端の手法と比較して配置ベンチマーク上での競合性能を達成することを実証した。
論文 参考訳(メタデータ) (2024-07-17T03:02:24Z) - Toward Reinforcement Learning-based Rectilinear Macro Placement Under
Human Constraints [3.512119717297359]
本研究では,GoogleのCircuit Training (G-CT) が提案するアプローチを利用して,学習ベースのマクロプレーサを提供する手法を提案する。
実験の結果,PPA(Power-Performance-Area)測定におけるフレームワークの有効性が示された。
論文 参考訳(メタデータ) (2023-11-03T00:09:52Z) - Train Hard, Fight Easy: Robust Meta Reinforcement Learning [78.16589993684698]
実世界のアプリケーションにおける強化学習(RL)の大きな課題は、環境、タスク、クライアントの違いである。
標準的なMRL法は、タスクよりも平均的なリターンを最適化するが、リスクや難易度の高いタスクでは悪い結果に悩まされることが多い。
本研究では, MRL の頑健な目標を制御レベルで定義する。
ロバストメタRLアルゴリズム(RoML)を用いてデータ非効率に対処する
論文 参考訳(メタデータ) (2023-01-26T14:54:39Z) - A Survey of Meta-Reinforcement Learning [69.76165430793571]
我々は,メタRLと呼ばれるプロセスにおいて,機械学習問題自体として,より優れたRLアルゴリズムを開発した。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,高レベルでメタRL研究をクラスタ化する方法について議論する。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程について,オープンな問題を提示することによって,結論を下す。
論文 参考訳(メタデータ) (2023-01-19T12:01:41Z) - User-Oriented Robust Reinforcement Learning [25.02456730639135]
政策学習のための新しいユーザ指向ロバストRL(UOR-RL)フレームワークを提案する。
ユーザの好みに応じて環境に異なる重みを割り当てる新しいユーザ指向ロバストネス(UOR)メトリックをRLに対して定義する。
UOR-RLトレーニングアルゴリズムは, 環境分布に関する不正確な知識や全く知識がなくても, ほぼ最適ポリシーに収束することを示す。
論文 参考訳(メタデータ) (2022-02-15T10:33:55Z) - On Joint Learning for Solving Placement and Routing in Chip Design [70.30640973026415]
本稿では,マクロや標準セルの配置に関するDeepPlaceによる共同学習手法を提案する。
また,DeepPRと呼ばれるマクロ配置とルーティングの両方を満たすための強化学習による共同学習手法も開発している。
本手法は,経験から効果的に学習し,数時間のトレーニングで標準細胞配置の中間配置を提供する。
論文 参考訳(メタデータ) (2021-10-30T11:41:49Z) - RL-DARTS: Differentiable Architecture Search for Reinforcement Learning [62.95469460505922]
我々は、強化学習(RL)における微分可能なアーキテクチャ探索(DARTS)の最初の応用の1つであるRL-DARTSを紹介する。
画像エンコーダをDARTSスーパーネットに置き換えることにより、検索方法はサンプリング効率が高く、余分な計算資源が最小限必要であり、また、既存のコードに小さな変更を加える必要がなく、オフ・ポリティクスとオン・ポリティクスのRLアルゴリズムとも互換性がある。
スーパーネットはより優れたセルを徐々に学習し、手作業で設計したポリシーに対して高い競争力を持つ代替アーキテクチャへとつながり、RLポリシーの以前の設計選択も検証できることを示す。
論文 参考訳(メタデータ) (2021-06-04T03:08:43Z) - Variational Empowerment as Representation Learning for Goal-Based
Reinforcement Learning [114.07623388322048]
本稿では,標準目標条件付きRL (GCRL) を目的変動エンパワーメントによってカプセル化する方法について論じる。
我々の研究は、ゴールベースRLで表現学習技術を評価し、分析し、開発する新しい基礎を築いた。
論文 参考訳(メタデータ) (2021-06-02T18:12:26Z) - End-to-end grasping policies for human-in-the-loop robots via deep
reinforcement learning [24.407804468007228]
最新の人間インザループロボットの把握は、EMG(Electromy robustness)推論の問題に大きく苦しんでいます。
本研究では,現実の到達軌道を捉えたループ内ロボットのポリシーをエンドツーエンドでトレーニングする手法を提案する。
論文 参考訳(メタデータ) (2021-04-26T19:39:23Z) - Towards Standardizing Reinforcement Learning Approaches for Stochastic
Production Scheduling [77.34726150561087]
強化学習はスケジューリングの問題を解決するのに使える。
既存の研究は、コードが利用できない複雑なシミュレーションに依存している。
から選ぶべきRLの設計の広大な配列があります。
モデル記述の標準化 - 生産セットアップとRL設計の両方 - と検証スキームは前提条件です。
論文 参考訳(メタデータ) (2021-04-16T16:07:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。