論文の概要: XRoute Environment: A Novel Reinforcement Learning Environment for
Routing
- arxiv url: http://arxiv.org/abs/2305.13823v2
- Date: Mon, 5 Jun 2023 07:53:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 01:00:08.896157
- Title: XRoute Environment: A Novel Reinforcement Learning Environment for
Routing
- Title(参考訳): XRoute Environment: ルーティングのための新しい強化学習環境
- Authors: Zhanwen Zhou, Hankz Hankui Zhuo, Xiaowu Zhang, Qiyuan Deng
- Abstract要約: 我々は,新しい強化学習環境であるXRoute Environmentを紹介した。
エージェントは、高度なエンドツーエンドのルーティングフレームワークでネットを選択してルーティングするように訓練される。
結果として生じる環境は難しく、使いやすく、カスタマイズし、追加のシナリオを追加します。
- 参考スコア(独自算出の注目度): 8.797544401458476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Routing is a crucial and time-consuming stage in modern design automation
flow for advanced technology nodes. Great progress in the field of
reinforcement learning makes it possible to use those approaches to improve the
routing quality and efficiency. However, the scale of the routing problems
solved by reinforcement learning-based methods in recent studies is too small
for these methods to be used in commercial EDA tools. We introduce the XRoute
Environment, a new reinforcement learning environment where agents are trained
to select and route nets in an advanced, end-to-end routing framework. Novel
algorithms and ideas can be quickly tested in a safe and reproducible manner in
it. The resulting environment is challenging, easy to use, customize and add
additional scenarios, and it is available under a permissive open-source
license. In addition, it provides support for distributed deployment and
multi-instance experiments. We propose two tasks for learning and build a
full-chip test bed with routing benchmarks of various region sizes. We also
pre-define several static routing regions with different pin density and number
of nets for easier learning and testing. For net ordering task, we report
baseline results for two widely used reinforcement learning algorithms (PPO and
DQN) and one searching-based algorithm (TritonRoute). The XRoute Environment
will be available at https://github.com/xplanlab/xroute_env.
- Abstract(参考訳): ルーティングは、先進技術ノードのための現代的な設計自動化フローにおいて重要かつ時間のかかる段階である。
強化学習の分野での大きな進歩は、これらのアプローチを使ってルーティングの品質と効率を改善することができる。
しかし,最近の研究で強化学習法が解決した経路問題の規模は小さすぎて,商用のedaツールでは利用できない。
我々はXRoute環境を紹介した。XRoute環境は、エージェントが高度なエンドツーエンドのルーティングフレームワークにおいて、ネットの選択とルーティングを訓練する新しい強化学習環境である。
新たなアルゴリズムやアイデアは、安全かつ再現可能な方法で迅速にテストすることができる。
結果として生じる環境は難しく、使いやすく、カスタマイズし、追加のシナリオを追加し、寛容なオープンソースライセンスの下で利用できる。
さらに、分散デプロイメントとマルチインスタンス実験のサポートも提供する。
本稿では,各地域規模のベンチマークをルーティングするフルチップテストベッドを構築するための2つのタスクを提案する。
また,ピン密度やネット数が異なる静的ルーティング領域を事前定義することで,学習やテストが容易になる。
ネットオーダリングタスクでは,広く使用されている強化学習アルゴリズム(ppoとdqn)と検索ベースアルゴリズム(tritonroute)のベースライン結果について報告する。
XRoute Environmentはhttps://github.com/xplanlab/xroute_env.comから入手できる。
関連論文リスト
- Learning Sub-Second Routing Optimization in Computer Networks requires Packet-Level Dynamics [15.018408728324887]
強化学習は、ルーティング決定を提供するネットワーク表現を学ぶのに役立つ。
汎用ネットワークトポロジにおけるルーティングのための最初のパケットレベル強化学習環境であるtextitPackeRL$を提示する。
また、サブ秒間ルーティング最適化を学習するための2つの新しいアルゴリズムも導入する。
論文 参考訳(メタデータ) (2024-10-14T11:03:46Z) - Coarse-to-Fine Q-attention with Learned Path Ranking [95.00518278458908]
本稿では,エンドエフェクタのゴールポーズを受け入れる手法であるLearned Path Ranking(LPR)を提案し,目標獲得パスのセットのランク付けを学習する。
16のRLBenchタスクにまたがるアプローチのベンチマークに加えて、実世界のタスク、タブララザも10~15分で3つのデモで学習します。
論文 参考訳(メタデータ) (2022-04-04T15:23:14Z) - Systematic Comparison of Path Planning Algorithms using PathBench [55.335463666037086]
パスプランニングはモバイルロボティクスの重要な構成要素である。
学習に基づく経路計画アルゴリズムの開発は、急速な成長を遂げている。
本稿では,パスプランニングアルゴリズムの開発,視覚化,トレーニング,テスト,ベンチマークを行うプラットフォームであるPathBenchについて述べる。
論文 参考訳(メタデータ) (2022-03-07T01:52:57Z) - Ranking Cost: Building An Efficient and Scalable Circuit Routing Planner
with Evolution-Based Optimization [49.207538634692916]
そこで我々は、効率よくトレーニング可能なルータを形成するための新しい回路ルーティングアルゴリズム、Randing Costを提案する。
提案手法では,A*ルータが適切な経路を見つけるのに役立つコストマップと呼ばれる新しい変数群を導入する。
我々のアルゴリズムはエンドツーエンドで訓練されており、人工データや人間の実演は一切使用しない。
論文 参考訳(メタデータ) (2021-10-08T07:22:45Z) - Learning Enhanced Optimisation for Routing Problems [3.747361228408185]
L2GLS(Learning to Guide Local Search)は、ルーティング問題に対する学習ベースのアプローチである。
L2GLSは、局所探索(LS)演算子の強度とペナルティ項を組み合わせ、局所最適から逃れる。
L2GLSは、他の機械学習手法よりも大きなTSPとCVRPに対して、最先端の新たな結果が得られることを示す。
論文 参考訳(メタデータ) (2021-09-17T04:47:26Z) - PathBench: A Benchmarking Platform for Classical and Learned Path
Planning Algorithms [59.3879573040863]
パスプランニングは、モバイルロボティクスの重要なコンポーネントです。
アルゴリズムを全体的あるいは統一的にベンチマークする試みはほとんど行われていない。
本稿では,パスプランニングアルゴリズムの開発,視覚化,トレーニング,テスト,ベンチマークを行うプラットフォームであるPathBenchについて述べる。
論文 参考訳(メタデータ) (2021-05-04T21:48:18Z) - Machine Learning Applications in the Routing in Computer Networks [0.9020406183127511]
インターネットトラフィックの量が増え続ける中、ルーティングアルゴリズムの開発は明らかに重要です。
集中型と分散型の両方のMLルーティングアーキテクチャを調査した。
14のルーティングアルゴリズムに2つのルーティングプロトコルを実装し,その効果を確認した。
論文 参考訳(メタデータ) (2021-04-05T15:08:35Z) - Learn-n-Route: Learning implicit preferences for vehicle routing [9.434400627011108]
ルート計画(またはルーティング)を手動で作成する際に、人間のプランナーが有する暗黙の好みをルーティングエンジンが学習する車両ルーティングの学習意思決定支援システムについて検討する。
目標は、車両ルーティングシステムの距離ベースの客観的基準の上にこれらの主観的な好みを使用することです。
論文 参考訳(メタデータ) (2021-01-11T14:57:46Z) - CATCH: Context-based Meta Reinforcement Learning for Transferrable
Architecture Search [102.67142711824748]
CATCHは、転送可能なarChitecture searcHのための、Context-bAsed meTa強化学習アルゴリズムである。
メタラーニングとRLの組み合わせにより、CATCHは検索空間に依存しないまま、新しいタスクに効率的に適応できる。
また、ImageNet、COCO、Cityscapesの競合ネットワークとしてクロスドメインアーキテクチャサーチを扱うこともできる。
論文 参考訳(メタデータ) (2020-07-18T09:35:53Z) - Learning Dynamic Routing for Semantic Segmentation [86.56049245100084]
本稿では,動的ルーティングと呼ばれる意味表現のスケール分散を緩和する概念的に新しい手法を提案する。
提案フレームワークは,各画像のスケール分布に適応して,データ依存経路を生成する。
この目的のために、ハエのスケール変換経路を選択するために、ソフトコンディショナルゲートと呼ばれる微分可能なゲーティング関数を提案する。
論文 参考訳(メタデータ) (2020-03-23T17:22:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。