論文の概要: Placement in Integrated Circuits using Cyclic Reinforcement Learning and
Simulated Annealing
- arxiv url: http://arxiv.org/abs/2011.07577v1
- Date: Sun, 15 Nov 2020 16:48:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 06:56:02.112707
- Title: Placement in Integrated Circuits using Cyclic Reinforcement Learning and
Simulated Annealing
- Title(参考訳): 循環強化学習と模擬アニーリングを用いた集積回路の配置
- Authors: Dhruv Vashisht, Harshit Rampal, Haiguang Liao, Yang Lu, Devika
Shanbhag, Elias Fallon, Levent Burak Kara
- Abstract要約: Reinforcement Learning (RL) と Simulated Annealing (SA) の循環的応用に基づく学習ベース配置ツールを考案する。
結果は、RLモジュールがSAのより優れた初期化を提供することができ、したがって最終的な配置設計がより良くなることを示している。
- 参考スコア(独自算出の注目度): 3.218464000295065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physical design and production of Integrated Circuits (IC) is becoming
increasingly more challenging as the sophistication in IC technology is
steadily increasing. Placement has been one of the most critical steps in IC
physical design. Through decades of research, partition-based, analytical-based
and annealing-based placers have been enriching the placement solution toolbox.
However, open challenges including long run time and lack of ability to
generalize continue to restrict wider applications of existing placement tools.
We devise a learning-based placement tool based on cyclic application of
Reinforcement Learning (RL) and Simulated Annealing (SA) by leveraging the
advancement of RL. Results show that the RL module is able to provide a better
initialization for SA and thus leads to a better final placement design.
Compared to other recent learning-based placers, our method is majorly
different with its combination of RL and SA. It leverages the RL model's
ability to quickly get a good rough solution after training and the heuristic's
ability to realize greedy improvements in the solution.
- Abstract(参考訳): IC技術の高度化が着実に進んでいるため、IC(Integrated Circuits)の物理的設計と製造はますます困難になりつつある。
配置は、IC物理設計における最も重要なステップの1つです。
数十年にわたる研究を通じて、パーティションベース、分析ベース、およびアニーリングベースのプレイサーは、プレースメントソリューションツールボックスを充実させてきた。
しかし、長期化や一般化能力の欠如といったオープンな課題は、既存の配置ツールの幅広い応用を制限し続けている。
強化学習(RL)とシミュレート・アニーリング(SA)の循環的応用に基づく学習ベースの配置ツールを,RLの進歩を活用して開発する。
結果は、RLモジュールがSAのより優れた初期化を提供することができ、したがって最終的な配置設計がより良くなることを示している。
近年の学習ベースプレーサーと比較して,本手法はRLとSAの組合せとは大きく異なる。
これは、RLモデルのトレーニング後の良い粗いソリューションを素早く得る能力と、ソリューションの欲求的な改善を実現するヒューリスティックな能力を活用する。
関連論文リスト
- Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Scalable Volt-VAR Optimization using RLlib-IMPALA Framework: A
Reinforcement Learning Approach [11.11570399751075]
本研究は, 深層強化学習(DRL)の可能性を活用した新しい枠組みを提案する。
DRLエージェントをRAYプラットフォームに統合することにより、RAYのリソースを効率的に利用してシステム適応性と制御を改善する新しいフレームワークであるRLlib-IMPALAの開発が容易になる。
論文 参考訳(メタデータ) (2024-02-24T23:25:35Z) - Design Space Exploration of Approximate Computing Techniques with a
Reinforcement Learning Approach [49.42371633618761]
精度劣化と消費電力と計算時間短縮のバランスをとるアプリケーションの近似バージョンを見つけるためのRLベースの戦略を提案する。
実験結果から,いくつかのベンチマークにおいて,精度劣化と消費電力減少と計算時間との良好なトレードオフが示された。
論文 参考訳(メタデータ) (2023-12-29T09:10:40Z) - RLLTE: Long-Term Evolution Project of Reinforcement Learning [48.181733263496746]
本稿では,RLLTEについて紹介する。RLLTEは長期的進化であり,高度にモジュール化された,強化学習研究と応用のためのオープンソースフレームワークである。
トップノーチアルゴリズムの実装を提供するだけでなく、RLLTEはアルゴリズム開発のためのツールキットとしても機能する。
RLLTEは、RLエンジニアリングの基準を設定し、産業や学界に高い刺激を与えると期待されている。
論文 参考訳(メタデータ) (2023-09-28T12:30:37Z) - Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [63.258517066104446]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
RL-EAセクションの適用例では、RL-EAのいくつかのベンチマークおよび様々な公開データセットにおける優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - Continuous-Time Reinforcement Learning: New Design Algorithms with
Theoretical Insights and Performance Guarantees [4.248962756649803]
本稿では,一組の(分散化された)励起積分強化学習(EIRL)アルゴリズムを紹介する。
我々は不安定な非最小位相超音速車両を制御する重要な応用問題に対して収束と閉ループ安定性を保証する。
論文 参考訳(メタデータ) (2023-07-18T01:36:43Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Ensemble Reinforcement Learning: A Survey [43.17635633600716]
強化学習(Reinforcement Learning, RL)は, 様々な科学的, 応用的な問題に対処するための, 極めて効果的な手法として登場した。
これに対し, アンサンブル強化学習(ERL)は, RLとアンサンブル学習(EL)の両方の利点を組み合わせた有望なアプローチであり, 広く普及している。
ERLは複数のモデルやトレーニングアルゴリズムを活用して、問題空間を包括的に探索し、強力な一般化能力を持つ。
論文 参考訳(メタデータ) (2023-03-05T09:26:44Z) - MARLIN: Soft Actor-Critic based Reinforcement Learning for Congestion
Control in Real Networks [63.24965775030673]
そこで本研究では,汎用的な渋滞制御(CC)アルゴリズムを設計するための新しい強化学習(RL)手法を提案する。
我々の解であるMARLINは、Soft Actor-Criticアルゴリズムを用いてエントロピーとリターンの両方を最大化する。
我々は,MARLINを実ネットワーク上で訓練し,実ミスマッチを克服した。
論文 参考訳(メタデータ) (2023-02-02T18:27:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。