論文の概要: Guiding Global Placement With Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2109.02631v1
- Date: Mon, 6 Sep 2021 17:54:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 18:11:44.260754
- Title: Guiding Global Placement With Reinforcement Learning
- Title(参考訳): 強化学習によるグローバルプレースメントの指導
- Authors: Robert Kirby, Kolby Nottingham, Rajarshi Roy, Saad Godil, Bryan
Catanzaro
- Abstract要約: 最近のGPUの進歩は、グローバル化を加速し、詳細な配置により、解決までの時間を桁違いに短縮した。
配置プロセスのグローバルあるいはローカライズされた制御を行う新しい制御方式を提案する。
次に、強化学習エージェントをトレーニングして、これらのコントロールを使用して、ソリューションの改善のための配置をガイドします。
- 参考スコア(独自算出の注目度): 14.392015114466263
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in GPU accelerated global and detail placement have reduced
the time to solution by an order of magnitude. This advancement allows us to
leverage data driven optimization (such as Reinforcement Learning) in an effort
to improve the final quality of placement results. In this work we augment
state-of-the-art, force-based global placement solvers with a reinforcement
learning agent trained to improve the final detail placed Half Perimeter Wire
Length (HPWL).
We propose novel control schemes with either global or localized control of
the placement process. We then train reinforcement learning agents to use these
controls to guide placement to improved solutions. In both cases, the augmented
optimizer finds improved placement solutions.
Our trained agents achieve an average 1% improvement in final detail place
HPWL across a range of academic benchmarks and more than 1% in global place
HPWL on real industry designs.
- Abstract(参考訳): gpuアクセラレーショングローバルおよびディテール配置の最近の進歩により、ソリューションに要する時間が1桁削減されている。
この進歩により、配置結果の最終品質を改善するために、データ駆動最適化(強化学習など)を活用することができます。
本研究では,半周線長 (hpwl) の細部を改良した強化学習エージェントを用いて,最新の力ずくで力ずくのグローバル配置ソルバを補強する。
配置プロセスのグローバルあるいはローカライズされた制御を行う新しい制御方式を提案する。
次に、強化学習エージェントをトレーニングして、これらのコントロールを使用して、配置を改良したソリューションに導く。
どちらの場合も、拡張オプティマイザは配置ソリューションを改善する。
トレーニングされたエージェントは、さまざまな学術ベンチマークでHPWLを平均1%改善し、実業界設計ではHPWLを1%以上利用しています。
関連論文リスト
- GOALPlace: Begin with the End in Mind [1.6540112525577089]
GOALPlaceは、細胞密度を制御することで、配置の混雑を改善するための新しい学習ベースのアプローチである。
提案手法は,EDAツールのポストルート最適化結果から効率よく学習し,実験的なベイズ手法を用いて,この目標/目標を特定のプレースラーの解に適用する。
論文 参考訳(メタデータ) (2024-07-05T15:16:25Z) - DG-RePlAce: A Dataflow-Driven GPU-Accelerated Analytical Global Placement Framework for Machine Learning Accelerators [0.6478490865903632]
DG-RePlAceは、OpenROADインフラストラクチャ上に構築された、GPUによる高速なグローバル配置フレームワークである。
提案手法は,DREAMPlace と比較して高速なグローバル配置とオンパー全実行時間により,経路長を10%削減し,全負スラック(TNS)を31%削減する。
論文 参考訳(メタデータ) (2024-03-16T00:15:20Z) - RA-DIT: Retrieval-Augmented Dual Instruction Tuning [90.98423540361946]
Retrieval-augmented Language Model (RALMs) は、外部データストアからロングテールおよび最新の知識にアクセスすることで、パフォーマンスを向上させる。
既存のアプローチでは、LM事前トレーニングに高価な検索固有の修正が必要になるか、あるいは、最適以下のパフォーマンスをもたらすデータストアのポストホック統合を使用する必要がある。
本稿では,第3の選択肢を提供する軽量な微調整手法であるRetrieval-Augmented Dual Instruction Tuning (RA-DIT)を紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:16:26Z) - Efficient Federated Learning via Local Adaptive Amended Optimizer with
Linear Speedup [90.26270347459915]
そこで我々は,グローバル・アダプティカル・アダプティカル・アダプティカル・アダプティカル・アダプティカル・アルゴリズムを提案する。
textitLADAは通信ラウンドを大幅に削減し、複数のベースラインよりも高い精度を実現する。
論文 参考訳(メタデータ) (2023-07-30T14:53:21Z) - Learning to Optimize for Reinforcement Learning [58.01132862590378]
強化学習(Reinforcement Learning, RL)は、教師付き学習とは本質的に異なり、実際、これらの学習は単純なRLタスクでもうまく機能しない。
エージェント勾配分布は非独立で同一分布であり、非効率なメタトレーニングをもたらす。
おもちゃのタスクでしか訓練されていないが、我々の学習はブラックスの目に見えない複雑なタスクを一般化できることを示した。
論文 参考訳(メタデータ) (2023-02-03T00:11:02Z) - PTDE: Personalized Training with Distilled Execution for Multi-Agent Reinforcement Learning [19.34602543021122]
個別の$Q$関数や個々のアクターを直接強化するために、グローバル情報を活用することを検討する。
我々は,エージェント個人化されたグローバル情報をエージェントのローカル情報に蒸留するPTDE(Personalized Training with Distilled Execution)という新しいパラダイムを導入する。
PTDEは最先端のアルゴリズムとシームレスに統合することができ、様々なベンチマークで注目すべきパフォーマンス向上につながっている。
論文 参考訳(メタデータ) (2022-10-17T09:08:13Z) - Revisiting Communication-Efficient Federated Learning with Balanced
Global and Local Updates [14.851898446967672]
本研究では,地域研修の数とグローバルアグリゲーションの数との最適なトレードオフを調査し,分析する。
提案手法は予測精度の点で性能が向上し,ベースライン方式よりもはるかに高速に収束する。
論文 参考訳(メタデータ) (2022-05-03T13:05:26Z) - SALR: Sharpness-aware Learning Rate Scheduler for Improved
Generalization [6.18778092044887]
本手法は,損失関数の局所的シャープネスに基づいて,勾配に基づく最小値の学習率を動的に更新する。
幅広いネットワーク上で様々なアルゴリズムでSALRを適用した場合の有効性を実証する。
実験の結果、SALRは一般化を改善し、より高速に収束し、解をかなり平坦な領域へと推し進めることがわかった。
論文 参考訳(メタデータ) (2020-11-10T19:00:52Z) - Domain Adaptive Person Re-Identification via Coupling Optimization [58.567492812339566]
ドメイン適応型人物再識別(ReID)は、ドメインのギャップとターゲットシナリオに対するアノテーションの不足のために困難である。
本稿では,ドメイン不変写像 (DIM) 法とグローバル局所距離最適化 (GLO) を含む結合最適化手法を提案する。
GLOはターゲットドメインの教師なし設定でReIDモデルをトレーニングするために設計されている。
論文 参考訳(メタデータ) (2020-11-06T14:01:03Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z) - Dynamics Generalization via Information Bottleneck in Deep Reinforcement
Learning [90.93035276307239]
本稿では,RLエージェントのより優れた一般化を実現するために,情報理論正則化目標とアニーリングに基づく最適化手法を提案する。
迷路ナビゲーションからロボットタスクまで、さまざまな領域において、我々のアプローチの極端な一般化の利点を実証する。
この研究は、タスク解決のために冗長な情報を徐々に取り除き、RLの一般化を改善するための原則化された方法を提供する。
論文 参考訳(メタデータ) (2020-08-03T02:24:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。