論文の概要: RL-Controller: a reinforcement learning framework for active structural
control
- arxiv url: http://arxiv.org/abs/2103.07616v1
- Date: Sat, 13 Mar 2021 04:42:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 13:45:51.534444
- Title: RL-Controller: a reinforcement learning framework for active structural
control
- Title(参考訳): RL-Controller: アクティブ構造制御のための強化学習フレームワーク
- Authors: Soheila Sadeghi Eshkevari, Soheil Sadeghi Eshkevari, Debarshi Sen,
Shamim N. Pakzad
- Abstract要約: フレキシブルでスケーラブルなシミュレーション環境であるRL-Controllerを導入することで,アクティブコントローラを設計するための新しいRLベースのアプローチを提案する。
提案するフレームワークは,5階建てのベンチマークビルディングに対して,平均65%の削減率で,容易に学習可能であることを示す。
LQG 能動制御法との比較研究において,提案したモデルフリーアルゴリズムはより最適なアクチュエータ強制戦略を学習することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To maintain structural integrity and functionality during the designed life
cycle of a structure, engineers are expected to accommodate for natural hazards
as well as operational load levels. Active control systems are an efficient
solution for structural response control when a structure is subjected to
unexpected extreme loads. However, development of these systems through
traditional means is limited by their model dependent nature. Recent
advancements in adaptive learning methods, in particular, reinforcement
learning (RL), for real-time decision making problems, along with rapid growth
in high-performance computational resources, help structural engineers to
transform the classic model-based active control problem to a purely
data-driven one. In this paper, we present a novel RL-based approach for
designing active controllers by introducing RL-Controller, a flexible and
scalable simulation environment. The RL-Controller includes attributes and
functionalities that are defined to model active structural control mechanisms
in detail. We show that the proposed framework is easily trainable for a five
story benchmark building with 65% reductions on average in inter story drifts
(ISD) when subjected to strong ground motions. In a comparative study with LQG
active control method, we demonstrate that the proposed model-free algorithm
learns more optimal actuator forcing strategies that yield higher performance,
e.g., 25% more ISD reductions on average with respect to LQG, without using
prior information about the mechanical properties of the system.
- Abstract(参考訳): 構造物の設計ライフサイクルにおける構造的整合性と機能を維持するため、技術者は自然災害や運用負荷レベルに対応することが期待されている。
アクティブ制御システムは、構造が予期せぬ極端な負荷を受けるとき、構造応答制御の効率的なソリューションである。
しかし、従来の手法によるこれらのシステムの開発は、モデル依存の性質によって制限される。
近年の適応学習手法,特に強化学習(RL)の進歩は,リアルタイムな意思決定問題や,高速な計算資源の急速な成長とともに,古典的なモデルに基づくアクティブコントロール問題を純粋にデータ駆動型に変換する上で有効である。
本稿では, フレキシブルでスケーラブルなシミュレーション環境であるRL-Controllerを導入することで, アクティブコントローラを設計するための新しいRLベースのアプローチを提案する。
rlコントローラには、アクティブな構造制御機構を詳細にモデル化するために定義された属性と機能が含まれている。
提案されたフレームワークは,強震動を受けると,ISD(Inter Story drifts)の平均65%削減した5階建てベンチマークビルのトレーニングが容易であることを示した。
lqg能動制御法との比較研究において,提案するモデルフリーアルゴリズムは,システムの機械的特性に関する事前情報を用いずに,lqgに対して平均で25%以上のisd低減を行うような,より最適なアクチュエータ強制戦略を学習できることを実証する。
関連論文リスト
- Neural Internal Model Control: Learning a Robust Control Policy via Predictive Error Feedback [16.46487826869775]
本稿では,モデルベース制御とRLベース制御を統合し,ロバスト性を高めるニューラル内部モデル制御を提案する。
我々のフレームワークは、剛体力学にニュートン・オイラー方程式を適用することで予測モデルを合理化し、複雑な高次元非線形性を捉える必要がなくなる。
本研究では,四足歩行ロボットと四足歩行ロボットにおけるフレームワークの有効性を実証し,最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T07:07:42Z) - Traffic expertise meets residual RL: Knowledge-informed model-based residual reinforcement learning for CAV trajectory control [1.5361702135159845]
本稿では,知識インフォームドモデルに基づく残留強化学習フレームワークを提案する。
交通専門家の知識を仮想環境モデルに統合し、基本力学にIntelligent Driver Model(IDM)、残留力学にニューラルネットワークを使用する。
本稿では,従来の制御手法を残差RLと組み合わせて,スクラッチから学習することなく,効率的な学習と政策最適化を容易にする新しい戦略を提案する。
論文 参考訳(メタデータ) (2024-08-30T16:16:57Z) - RL + Model-based Control: Using On-demand Optimal Control to Learn Versatile Legged Locomotion [16.800984476447624]
本稿では,モデルに基づく最適制御と強化学習を組み合わせた制御フレームワークを提案する。
我々は、一連の実験を通じて、フレームワークの堅牢性と制御性を検証する。
本フレームワークは,多様な次元を持つロボットに対する制御ポリシーのトレーニングを,無力的に支援する。
論文 参考訳(メタデータ) (2023-05-29T01:33:55Z) - A Dynamic Feedforward Control Strategy for Energy-efficient Building
System Operation [59.56144813928478]
現在の制御戦略と最適化アルゴリズムでは、そのほとんどはリアルタイムフィードバックから情報を受け取ることに依存している。
本稿では,システム制御のためのシステム特性を同時に構築することによる,ダイナミックな事前知識を組み込む,エンジニアフレンドリな制御戦略フレームワークを提案する。
典型的な制御戦略でシステム制御を加熱するケースでテストしたところ、我々のフレームワークは15%の省エネ性を持っていることがわかった。
論文 参考訳(メタデータ) (2023-01-23T09:07:07Z) - Structure-Enhanced DRL for Optimal Transmission Scheduling [43.801422320012286]
本稿では,遠隔推定システムの送信スケジューリング問題に焦点をあてる。
システムの最適スケジューリングのための構造強化型深層強化学習フレームワークを開発した。
特に,政策構造に従う行動を選択する傾向にある構造強化行動選択法を提案する。
論文 参考訳(メタデータ) (2022-12-24T10:18:38Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - Sparsity in Partially Controllable Linear Systems [56.142264865866636]
本研究では, 部分制御可能な線形力学系について, 基礎となる空間パターンを用いて検討する。
最適制御には無関係な状態変数を特徴付ける。
論文 参考訳(メタデータ) (2021-10-12T16:41:47Z) - Imposing Robust Structured Control Constraint on Reinforcement Learning
of Linear Quadratic Regulator [0.0]
本稿では,分散学習制御の手法を編み出した汎用構造の設計について述べる。
方法論の開発には、強化学習(RL)と制御理論による十分な安定性と性能保証を併用した考え方を用いる。
6エージェントのマルチエージェントネットワーク上でのシミュレーションによる理論的結果の検証を行った。
論文 参考訳(メタデータ) (2020-11-12T00:31:39Z) - Learning a Contact-Adaptive Controller for Robust, Efficient Legged
Locomotion [95.1825179206694]
四足歩行ロボットのためのロバストコントローラを合成するフレームワークを提案する。
高レベルコントローラは、環境の変化に応じてプリミティブのセットを選択することを学習する。
確立された制御方法を使用してプリミティブを堅牢に実行する低レベルコントローラ。
論文 参考訳(メタデータ) (2020-09-21T16:49:26Z) - Guided Constrained Policy Optimization for Dynamic Quadrupedal Robot
Locomotion [78.46388769788405]
我々は,制約付きポリシー最適化(CPPO)の実装に基づくRLフレームワークであるGCPOを紹介する。
誘導制約付きRLは所望の最適値に近い高速収束を実現し,正確な報酬関数チューニングを必要とせず,最適かつ物理的に実現可能なロボット制御動作を実現することを示す。
論文 参考訳(メタデータ) (2020-02-22T10:15:53Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。