論文の概要: Design Process is a Reinforcement Learning Problem
- arxiv url: http://arxiv.org/abs/2211.03136v1
- Date: Sun, 6 Nov 2022 14:37:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 18:07:11.157980
- Title: Design Process is a Reinforcement Learning Problem
- Title(参考訳): デザインプロセスは強化学習問題である
- Authors: Reza kakooee and Benjamin Dillunberger
- Abstract要約: 設計プロセスは強化学習の問題であり、RLアルゴリズムの適切な応用になり得ると我々は主張する。
これはRLメソッドを使用する機会を生み出し、同時に課題を提起する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While reinforcement learning has been used widely in research during the past
few years, it found fewer real-world applications than supervised learning due
to some weaknesses that the RL algorithms suffer from, such as performance
degradation in transitioning from the simulator to the real world. Here, we
argue the design process is a reinforcement learning problem and can
potentially be a proper application for RL algorithms as it is an offline
process and conventionally is done in CAD software - a sort of simulator. This
creates opportunities for using RL methods and, at the same time, raises
challenges. While the design processes are so diverse, here we focus on the
space layout planning (SLP), frame it as an RL problem under the Markov
Decision Process, and use PPO to address the layout design problem. To do so,
we developed an environment named RLDesigner, to simulate the SLP. The
RLDesigner is an OpenAI Gym compatible environment that can be easily
customized to define a diverse range of design scenarios. We publicly share the
environment to encourage both RL and architecture communities to use it for
testing different RL algorithms or in their design practice. The codes are
available in the following GitHub repository https://github.com/
RezaKakooee/rldesigner/tree/Second_Paper
- Abstract(参考訳): 近年、強化学習は研究で広く使われているが、シミュレータから実世界への遷移における性能劣化など、RLアルゴリズムが抱える弱点により、教師あり学習よりも現実世界の応用が少ないことが判明した。
ここでは、設計プロセスは強化学習の問題であり、オフラインプロセスであるRLアルゴリズムの適切な応用になり得ると論じ、従来CADソフトウェア(一種のシミュレーター)で行われている。
これはRLメソッドを使用する機会を生み出し、同時に課題を提起する。
設計プロセスは非常に多様であるが、ここでは空間レイアウト計画(SLP)に注目し、マルコフ決定プロセスの下でRL問題としてフレーム化し、PPOを用いてレイアウト設計問題に対処する。
そこで我々は,SLPをシミュレートするRLDesignerという環境を開発した。
rldesignerはopenai gym互換の環境であり、多様なデザインシナリオを定義するために簡単にカスタマイズすることができる。
我々は、RLとアーキテクチャのコミュニティの両方が、異なるRLアルゴリズムのテストや彼らの設計実践にそれを使うことを奨励するために、環境を公に共有します。
コードは以下のGitHubリポジトリ https://github.com/RezaKakooee/rldesigner/tree/Second_Paperで公開されている。
関連論文リスト
- DeLF: Designing Learning Environments with Foundation Models [3.6666767699199805]
強化学習(RL)は、基本的なシーケンシャルな意思決定問題に対して有能で直感な構造を提供する。
驚くべきブレークスルーにもかかわらず、多くの単純なアプリケーションで実際にRLを採用するのは難しい。
本稿では,ユーザが意図したアプリケーションに対して,RL環境のコンポーネントを設計する手法を提案する。
論文 参考訳(メタデータ) (2024-01-17T03:14:28Z) - RL4CO: an Extensive Reinforcement Learning for Combinatorial Optimization Benchmark [69.19502244910632]
深部強化学習(RL)は、最適化(CO)問題を解く上で大きな利点を示している。
RL4COは,23の最先端メソッドと20以上のCO問題を含む,詳細なライブラリカバレッジを備えた統一ベンチマークである。
効率的なソフトウェアライブラリと実装のベストプラクティスに基づいて構築されたRL4COは、モジュール化された実装と、多様なRLアルゴリズム、ニューラルネットワークアーキテクチャ、推論技術、環境の柔軟な構成を備えている。
論文 参考訳(メタデータ) (2023-06-29T16:57:22Z) - SRL: Scaling Distributed Reinforcement Learning to Over Ten Thousand Cores [13.948640763797776]
本稿では,RLトレーニングアプリケーションを汎用フレームワークに統合する,RLトレーニングのデータフローに関する新しい抽象化を提案する。
スケーラブルで効率的で分散的なRLシステムであるReaLly scalableRLを開発した。
SRLは15k以上のCPUコアでRL実験を大規模に実施した初めての学術コミュニティである。
論文 参考訳(メタデータ) (2023-06-29T05:16:25Z) - LCRL: Certified Policy Synthesis via Logically-Constrained Reinforcement
Learning [78.2286146954051]
LCRLは未知決定プロセス(MDP)上でのモデルフリー強化学習(RL)アルゴリズムを実装している
本稿では,LCRLの適用性,使いやすさ,拡張性,性能を示すケーススタディを提案する。
論文 参考訳(メタデータ) (2022-09-21T13:21:00Z) - Automated Reinforcement Learning (AutoRL): A Survey and Open Problems [92.73407630874841]
AutoRL(Automated Reinforcement Learning)には、AutoMLの標準的なアプリケーションだけでなく、RL特有の課題も含まれている。
我々は共通の分類法を提供し、各領域を詳細に議論し、今後の研究者にとって関心のあるオープンな問題を提起する。
論文 参考訳(メタデータ) (2022-01-11T12:41:43Z) - A Workflow for Offline Model-Free Robotic Reinforcement Learning [117.07743713715291]
オフライン強化学習(RL)は、オンラインインタラクションを伴わずに、事前の経験のみを活用することによって、学習制御ポリシを可能にする。
本研究では,教師付き学習問題に対して,比較的よく理解されたオフラインRLと類似した実践的ワークフローを開発する。
オンラインチューニングを伴わない効果的なポリシー作成におけるこのワークフローの有効性を実証する。
論文 参考訳(メタデータ) (2021-09-22T16:03:29Z) - RL-DARTS: Differentiable Architecture Search for Reinforcement Learning [62.95469460505922]
我々は、強化学習(RL)における微分可能なアーキテクチャ探索(DARTS)の最初の応用の1つであるRL-DARTSを紹介する。
画像エンコーダをDARTSスーパーネットに置き換えることにより、検索方法はサンプリング効率が高く、余分な計算資源が最小限必要であり、また、既存のコードに小さな変更を加える必要がなく、オフ・ポリティクスとオン・ポリティクスのRLアルゴリズムとも互換性がある。
スーパーネットはより優れたセルを徐々に学習し、手作業で設計したポリシーに対して高い競争力を持つ代替アーキテクチャへとつながり、RLポリシーの以前の設計選択も検証できることを示す。
論文 参考訳(メタデータ) (2021-06-04T03:08:43Z) - Towards Standardizing Reinforcement Learning Approaches for Stochastic
Production Scheduling [77.34726150561087]
強化学習はスケジューリングの問題を解決するのに使える。
既存の研究は、コードが利用できない複雑なシミュレーションに依存している。
から選ぶべきRLの設計の広大な配列があります。
モデル記述の標準化 - 生産セットアップとRL設計の両方 - と検証スキームは前提条件です。
論文 参考訳(メタデータ) (2021-04-16T16:07:10Z) - Learning to Locomote: Understanding How Environment Design Matters for
Deep Reinforcement Learning [7.426118390008397]
環境設計が重要な課題であることを示し、それが多くのRL結果の脆い性質にどのように貢献するかを文書化する。
具体的には、状態表現、初期状態分布、報酬構造、制御周波数、エピソード終了手順、カリキュラム使用法、動作空間、トルク制限に関する選択について検討する。
このような選択に関する議論を刺激することを目的としており、実際に、ローコライト学習などのアニメーションに対する関心の連続的な操作制御問題に適用した場合、RLの成功に強く影響する。
論文 参考訳(メタデータ) (2020-10-09T00:03:27Z) - Review, Analysis and Design of a Comprehensive Deep Reinforcement
Learning Framework [6.527722484694189]
本稿では,コネクテッド・ザ・ドット・ディープ・RLアーキテクチャの設計において重要な役割を果たす包括的ソフトウェア・フレームワークを提案する。
我々は、柔軟性、堅牢性、スケーラビリティを厳格に保証する、深いRLベースのソフトウェアフレームワークを設計、開発しました。
論文 参考訳(メタデータ) (2020-02-27T02:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。