論文の概要: Epersist: A Self Balancing Robot Using PID Controller And Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2207.11431v1
- Date: Sat, 23 Jul 2022 06:27:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:30:58.964856
- Title: Epersist: A Self Balancing Robot Using PID Controller And Deep
Reinforcement Learning
- Title(参考訳): Epersist: PIDコントローラとDeep Reinforcement Learningを用いた自己バランスロボット
- Authors: Ghanta Sai Krishna, Dyavat Sumith, Garika Akshay
- Abstract要約: 二輪自走式ロボットは逆振り子の例であり、本質的に非線形で不安定なシステムである。
「エスペリスト」とは、ロバストな制御機構を提供することで、当初不安定なシステムに逆らうという課題を克服することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A two-wheeled self-balancing robot is an example of an inverse pendulum and
is an inherently non-linear, unstable system. The fundamental concept of the
proposed framework "Epersist" is to overcome the challenge of counterbalancing
an initially unstable system by delivering robust control mechanisms,
Proportional Integral Derivative(PID), and Reinforcement Learning (RL).
Moreover, the micro-controller NodeMCUESP32 and inertial sensor in the Epersist
employ fewer computational procedures to give accurate instruction regarding
the spin of wheels to the motor driver, which helps control the wheels and
balance the robot. This framework also consists of the mathematical model of
the PID controller and a novel self-trained advantage actor-critic algorithm as
the RL agent. After several experiments, control variable calibrations are made
as the benchmark values to attain the angle of static equilibrium. This
"Epersist" framework proposes PID and RL-assisted functional prototypes and
simulations for better utility.
- Abstract(参考訳): 二輪自走ロボットは逆振り子の例であり、本質的に非線形で不安定なシステムである。
提案するフレームワーク「エスペリスト」の基本概念は、堅牢な制御機構、PID(Proportional Integral Derivative)、強化学習(Reinforcement Learning, RL)を提供することによって、初期不安定なシステムを逆バランスさせることの課題を克服することである。
さらに、マイクロコントローラのNodeMCUESP32とEpersistの慣性センサーは、より少ない計算手順を用いて、車輪の回転に関する正確な指示をモータードライバに与え、車輪の制御とロボットのバランスを補助する。
このフレームワークはまた、PIDコントローラの数学的モデルと、RLエージェントとしての新たな自己学習型アドバンテージアクター-クリティックアルゴリズムで構成されている。
数回の実験の後、静的平衡の角度を得るためのベンチマーク値として制御変数のキャリブレーションが作成される。
この "Epersist" フレームワークでは,PID と RL による機能プロトタイプとシミュレーションが提案されている。
関連論文リスト
- Leveraging Symmetry to Accelerate Learning of Trajectory Tracking Controllers for Free-Flying Robotic Systems [24.360194697715382]
トラッキングコントローラにより、ロボットシステムは計画された基準軌道を正確に追従することができる。
本研究では,フローティングベースを持つロボットシステムの固有リー群対称性を活用して,トラッキングコントローラの学習における課題を軽減する。
その結果,対称性を意識したアプローチはトレーニングを加速し,同一のトレーニングステップの後に追跡誤差を減少させることがわかった。
論文 参考訳(メタデータ) (2024-09-17T14:39:24Z) - Modelling, Positioning, and Deep Reinforcement Learning Path Tracking
Control of Scaled Robotic Vehicles: Design and Experimental Validation [3.807917169053206]
スケールされたロボットカーは通常、車両の状態の推定と制御に特化したタスクを含む階層的な制御機構を備えている。
本稿では, (i) フェデレートされた拡張カルマンフィルタ (FEKF) と (ii) エキスパートデモレータを用いて訓練された新しい深部強化学習 (DRL) パストラッキングコントローラを提案する。
実験により検証されたモデルは、(i)FEKFの設計を支援するために使用され、(ii)DRLに基づく経路追跡アルゴリズムをトレーニングするためのデジタルツインとして機能する。
論文 参考訳(メタデータ) (2024-01-10T14:40:53Z) - Self-Tuning PID Control via a Hybrid Actor-Critic-Based Neural Structure
for Quadcopter Control [0.0]
Proportional-Integrator-Derivative (PID) コントローラは、幅広い産業および実験プロセスで使用されている。
モデルパラメータの不確実性と外乱のため、Quadrotorsのような実際のシステムはより堅牢で信頼性の高いPIDコントローラを必要とする。
本研究では,Reinforcement-Learning-based Neural Networkを用いた自己調整型PIDコントローラについて検討した。
論文 参考訳(メタデータ) (2023-07-03T19:35:52Z) - Real-Time Model-Free Deep Reinforcement Learning for Force Control of a
Series Elastic Actuator [56.11574814802912]
最先端のロボットアプリケーションは、歩行、揚力、操作などの複雑なタスクを達成するために、閉ループ力制御を備えた連続弾性アクチュエータ(SEAs)を使用する。
モデルフリーPID制御法はSEAの非線形性により不安定になりやすい。
深層強化学習は連続制御タスクに有効なモデルレス手法であることが証明されている。
論文 参考訳(メタデータ) (2023-04-11T00:51:47Z) - Autotuning PID control using Actor-Critic Deep Reinforcement Learning [0.0]
モデルがリンゴの位置に基づいてPIDパラメータを予測できるかどうかを調べる。
最初のテストでは、モデルがその予測をリンゴの場所に適応できることが示され、適応的なコントローラになっている。
論文 参考訳(メタデータ) (2022-11-29T11:15:50Z) - Active Predicting Coding: Brain-Inspired Reinforcement Learning for
Sparse Reward Robotic Control Problems [79.07468367923619]
ニューラルジェネレーティブ・コーディング(NGC)の神経認知計算フレームワークによるロボット制御へのバックプロパゲーションフリーアプローチを提案する。
我々は、スパース報酬から動的オンライン学習を容易にする強力な予測符号化/処理回路から完全に構築されたエージェントを設計する。
提案するActPCエージェントは,スパース(外部)報酬信号に対して良好に動作し,複数の強力なバックプロップベースのRLアプローチと競合し,性能が優れていることを示す。
論文 参考訳(メタデータ) (2022-09-19T16:49:32Z) - Automatic Rule Induction for Efficient Semi-Supervised Learning [56.91428251227253]
半教師付き学習は、少量のラベル付きデータからNLPモデルを一般化できることを約束している。
事前訓練されたトランスモデルはブラックボックス相関エンジンとして機能し、説明が困難であり、時には信頼性に欠ける振る舞いをする。
本稿では,これらの課題に,簡易かつ汎用的なフレームワークであるAutomatic Rule Injection (ARI) を用いて対処することを提案する。
論文 参考訳(メタデータ) (2022-05-18T16:50:20Z) - Bayesian Optimization Meets Hybrid Zero Dynamics: Safe Parameter
Learning for Bipedal Locomotion Control [17.37169551675587]
両足歩行ロボットの移動制御のためのマルチドメイン制御パラメータ学習フレームワークを提案する。
BOを利用して、HZDベースのコントローラで使用される制御パラメータを学習する。
次に、物理ロボットに学習プロセスを適用し、シミュレーションで学習した制御パラメータの修正を学習する。
論文 参考訳(メタデータ) (2022-03-04T20:48:17Z) - Gaussian Process-based Min-norm Stabilizing Controller for
Control-Affine Systems with Uncertain Input Effects and Dynamics [90.81186513537777]
本稿では,この問題の制御・アフィン特性を捉えた新しい化合物カーネルを提案する。
この結果の最適化問題は凸であることを示し、ガウス過程に基づく制御リャプノフ関数第二次コーンプログラム(GP-CLF-SOCP)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-14T01:27:32Z) - Learning Stabilizing Controllers for Unstable Linear Quadratic
Regulators from a Single Trajectory [85.29718245299341]
線形2次制御器(LQR)としても知られる2次コストモデルの下で線形制御器を研究する。
楕円形不確実性集合内の全ての系を安定化させる制御器を構成する2つの異なる半定値プログラム(SDP)を提案する。
高い確率で安定化コントローラを迅速に識別できる効率的なデータ依存アルゴリズムであるtextsceXplorationを提案する。
論文 参考訳(メタデータ) (2020-06-19T08:58:57Z) - Improving Input-Output Linearizing Controllers for Bipedal Robots via
Reinforcement Learning [85.13138591433635]
入力出力線形化コントローラの主な欠点は、正確な力学モデルが必要であり、入力制約を考慮できないことである。
本稿では,強化学習技術を用いた二足歩行ロボット制御の具体例について,両課題に対処する。
論文 参考訳(メタデータ) (2020-04-15T18:15:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。