論文の概要: Delving into Macro Placement with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2109.02587v1
- Date: Mon, 6 Sep 2021 16:30:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 16:54:50.870216
- Title: Delving into Macro Placement with Reinforcement Learning
- Title(参考訳): 強化学習によるマクロ配置への埋め込み
- Authors: Zixuan Jiang, Ebrahim Songhori, Shen Wang, Anna Goldie, Azalia
Mirhoseini, Joe Jiang, Young-Joon Lee, David Z. Pan
- Abstract要約: 強化学習環境に標準セルを配置するために,DREAMPlace をフォース指向方式に置き換える。
また,提案手法を他の学術的指標と比較した。
- 参考スコア(独自算出の注目度): 9.820395730612328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In physical design, human designers typically place macros via trial and
error, which is a Markov decision process. Reinforcement learning (RL) methods
have demonstrated superhuman performance on the macro placement. In this paper,
we propose an extension to this prior work (Mirhoseini et al., 2020). We first
describe the details of the policy and value network architecture. We replace
the force-directed method with DREAMPlace for placing standard cells in the RL
environment. We also compare our improved method with other academic placers on
public benchmarks.
- Abstract(参考訳): 物理的設計において、人間設計者は、通常、試行錯誤によってマクロを配置する。
強化学習(RL)法はマクロ配置において超人的性能を示す。
本稿では,この先行研究への拡張を提案する(mirhoseini et al., 2020)。
まず、ポリシーとバリューネットワークアーキテクチャの詳細を説明します。
本手法は,標準セルをrl環境に配置するためのドリームプレイスに置き換える。
また,提案手法を他の学術的指標と比較した。
関連論文リスト
- Toward Reinforcement Learning-based Rectilinear Macro Placement Under
Human Constraints [3.512119717297359]
本研究では,GoogleのCircuit Training (G-CT) が提案するアプローチを利用して,学習ベースのマクロプレーサを提供する手法を提案する。
実験の結果,PPA(Power-Performance-Area)測定におけるフレームワークの有効性が示された。
論文 参考訳(メタデータ) (2023-11-03T00:09:52Z) - Train Hard, Fight Easy: Robust Meta Reinforcement Learning [78.16589993684698]
実世界のアプリケーションにおける強化学習(RL)の大きな課題は、環境、タスク、クライアントの違いである。
標準的なMRL法は、タスクよりも平均的なリターンを最適化するが、リスクや難易度の高いタスクでは悪い結果に悩まされることが多い。
本研究では, MRL の頑健な目標を制御レベルで定義する。
ロバストメタRLアルゴリズム(RoML)を用いてデータ非効率に対処する
論文 参考訳(メタデータ) (2023-01-26T14:54:39Z) - A Survey of Meta-Reinforcement Learning [83.95180398234238]
我々は,メタRLと呼ばれるプロセスにおいて,機械学習問題自体として,より優れたRLアルゴリズムを開発した。
本稿では,タスク分布の存在と各タスクに利用可能な学習予算に基づいて,高レベルでメタRL研究をクラスタ化する方法について議論する。
RL実践者のための標準ツールボックスにメタRLを組み込むことの道程について,オープンな問題を提示することによって,結論を下す。
論文 参考訳(メタデータ) (2023-01-19T12:01:41Z) - Robot Learning of Mobile Manipulation with Reachability Behavior Priors [38.49783454634775]
モバイルマニピュレーション(MM)システムは、非構造化現実環境におけるパーソナルアシスタントの役割を引き継ぐ上で理想的な候補である。
その他の課題として、MMは移動性と操作性の両方を必要とするタスクを実行するために、ロボットの実施形態を効果的に調整する必要がある。
本研究では,アクタ批判的RL手法におけるロボットの到達可能性の先行性の統合について検討した。
論文 参考訳(メタデータ) (2022-03-08T12:44:42Z) - User-Oriented Robust Reinforcement Learning [25.02456730639135]
政策学習のための新しいユーザ指向ロバストRL(UOR-RL)フレームワークを提案する。
ユーザの好みに応じて環境に異なる重みを割り当てる新しいユーザ指向ロバストネス(UOR)メトリックをRLに対して定義する。
UOR-RLトレーニングアルゴリズムは, 環境分布に関する不正確な知識や全く知識がなくても, ほぼ最適ポリシーに収束することを示す。
論文 参考訳(メタデータ) (2022-02-15T10:33:55Z) - On Joint Learning for Solving Placement and Routing in Chip Design [70.30640973026415]
本稿では,マクロや標準セルの配置に関するDeepPlaceによる共同学習手法を提案する。
また,DeepPRと呼ばれるマクロ配置とルーティングの両方を満たすための強化学習による共同学習手法も開発している。
本手法は,経験から効果的に学習し,数時間のトレーニングで標準細胞配置の中間配置を提供する。
論文 参考訳(メタデータ) (2021-10-30T11:41:49Z) - RL-DARTS: Differentiable Architecture Search for Reinforcement Learning [62.95469460505922]
我々は、強化学習(RL)における微分可能なアーキテクチャ探索(DARTS)の最初の応用の1つであるRL-DARTSを紹介する。
画像エンコーダをDARTSスーパーネットに置き換えることにより、検索方法はサンプリング効率が高く、余分な計算資源が最小限必要であり、また、既存のコードに小さな変更を加える必要がなく、オフ・ポリティクスとオン・ポリティクスのRLアルゴリズムとも互換性がある。
スーパーネットはより優れたセルを徐々に学習し、手作業で設計したポリシーに対して高い競争力を持つ代替アーキテクチャへとつながり、RLポリシーの以前の設計選択も検証できることを示す。
論文 参考訳(メタデータ) (2021-06-04T03:08:43Z) - Variational Empowerment as Representation Learning for Goal-Based
Reinforcement Learning [114.07623388322048]
本稿では,標準目標条件付きRL (GCRL) を目的変動エンパワーメントによってカプセル化する方法について論じる。
我々の研究は、ゴールベースRLで表現学習技術を評価し、分析し、開発する新しい基礎を築いた。
論文 参考訳(メタデータ) (2021-06-02T18:12:26Z) - End-to-end grasping policies for human-in-the-loop robots via deep
reinforcement learning [24.407804468007228]
最新の人間インザループロボットの把握は、EMG(Electromy robustness)推論の問題に大きく苦しんでいます。
本研究では,現実の到達軌道を捉えたループ内ロボットのポリシーをエンドツーエンドでトレーニングする手法を提案する。
論文 参考訳(メタデータ) (2021-04-26T19:39:23Z) - Towards Standardizing Reinforcement Learning Approaches for Stochastic
Production Scheduling [77.34726150561087]
強化学習はスケジューリングの問題を解決するのに使える。
既存の研究は、コードが利用できない複雑なシミュレーションに依存している。
から選ぶべきRLの設計の広大な配列があります。
モデル記述の標準化 - 生産セットアップとRL設計の両方 - と検証スキームは前提条件です。
論文 参考訳(メタデータ) (2021-04-16T16:07:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。