論文の概要: A Q-learning approach to the continuous control problem of robot
inverted pendulum balancing
- arxiv url: http://arxiv.org/abs/2312.02649v1
- Date: Tue, 5 Dec 2023 10:40:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 16:06:29.663368
- Title: A Q-learning approach to the continuous control problem of robot
inverted pendulum balancing
- Title(参考訳): ロボット倒立振子バランスの連続制御問題に対するq-learningアプローチ
- Authors: Mohammad Safeea, Pedro Neto
- Abstract要約: 本研究では,ロボット逆振り子バランスの連続制御問題に対する離散的行動空間強化学習法(Q-learning)の適用性を評価する。
システム力学の数学的モデルが実装され、実システムから取得したデータに対する曲線フィッティングによって導出される。
- 参考スコア(独自算出の注目度): 0.29008108937701327
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study evaluates the application of a discrete action space reinforcement
learning method (Q-learning) to the continuous control problem of robot
inverted pendulum balancing. To speed up the learning process and to overcome
technical difficulties related to the direct learning on the real robotic
system, the learning phase is performed in simulation environment. A
mathematical model of the system dynamics is implemented, deduced by curve
fitting on data acquired from the real system. The proposed approach
demonstrated feasible, featuring its application on a real world robot that
learned to balance an inverted pendulum. This study also reinforces and
demonstrates the importance of an accurate representation of the physical world
in simulation to achieve a more efficient implementation of reinforcement
learning algorithms in real world, even when using a discrete action space
algorithm to control a continuous action.
- Abstract(参考訳): 本研究では,ロボット倒立振子バランスの連続制御問題に対する離散的行動空間強化学習法(q-learning)の適用性を評価する。
実際のロボットシステムにおいて、学習プロセスを高速化し、直接学習に関連する技術的困難を克服するために、シミュレーション環境で学習フェーズを行う。
実システムから取得したデータに対する曲線フィッティングによって導かれるシステムダイナミクスの数学的モデルを実装した。
提案手法は,倒立振子のバランスを学習した実世界のロボットに適用できることを示す。
本研究は,連続動作を制御する離散的行動空間アルゴリズムを用いた場合においても,実世界における強化学習アルゴリズムのより効率的な実装を実現するために,シミュレーションにおける物理世界の正確な表現の重要性を補強し,実証する。
関連論文リスト
- Stochastic Online Optimization for Cyber-Physical and Robotic Systems [9.392372266209103]
本稿では,サイバー物理・ロボットシステムの文脈におけるプログラミング問題の解決のための新しいオンラインフレームワークを提案する。
我々の問題定式化制約は、一般に連続状態とアクション空間が非線形であるサイバー物理システムの進化をモデル化する。
我々は, 力学の粗い推定でも, アルゴリズムの収束性を大幅に向上させることができることを示した。
論文 参考訳(メタデータ) (2024-04-08T09:08:59Z) - Distributed Robust Learning based Formation Control of Mobile Robots based on Bioinspired Neural Dynamics [14.149584412213269]
まず,変数構造とカスケード設計手法を用いた分散推定器を導入し,実時間性能向上のための微分情報の必要性を排除した。
そして、スムーズな制御入力を提供し、スピードジャンプ問題を効果的に解決することを目的とした、バイオインスパイアされたニューラルダイナミックベースのアプローチを用いて、キネマティックトラッキング制御法を開発した。
完全に未知の力学と乱れを持つロボットの課題に対処するために,学習に基づく頑健な動的コントローラを開発した。
論文 参考訳(メタデータ) (2024-03-23T04:36:12Z) - DiAReL: Reinforcement Learning with Disturbance Awareness for Robust
Sim2Real Policy Transfer in Robot Control [0.0]
遅延マルコフ決定プロセスは、最近コミットされたアクションの有限時間ウィンドウでエージェントの状態空間を拡大することでマルコフ特性を満たす。
本稿では,遅延した環境下での乱れ増進型マルコフ決定プロセスを導入し,政治強化学習アルゴリズムのトレーニングにおける乱れ推定を取り入れた新しい表現法を提案する。
論文 参考訳(メタデータ) (2023-06-15T10:11:38Z) - Bridging Active Exploration and Uncertainty-Aware Deployment Using
Probabilistic Ensemble Neural Network Dynamics [11.946807588018595]
本稿では,活発な探索と不確実性を考慮した展開を橋渡しするモデルベース強化学習フレームワークを提案する。
探索と展開の対立する2つのタスクは、最先端のサンプリングベースのMPCによって最適化されている。
自動運転車と車輪付きロボットの両方で実験を行い、探索と展開の両方に有望な結果を示します。
論文 参考訳(メタデータ) (2023-05-20T17:20:12Z) - Exploiting Symmetry and Heuristic Demonstrations in Off-policy
Reinforcement Learning for Robotic Manipulation [1.7901837062462316]
本稿では,物理ロボット環境に存在する自然対称性を定義し,組み込むことを目的とする。
提案手法は,産業用アームの2つのポイント・ツー・ポイント・リーチタスクによって,障害物を伴わずに検証される。
提案手法と従来の非政治強化学習アルゴリズムとの比較研究は,アプリケーションにおける学習性能と潜在的価値の優位性を示している。
論文 参考訳(メタデータ) (2023-04-12T11:38:01Z) - Online Learning of Wheel Odometry Correction for Mobile Robots with
Attention-based Neural Network [63.8376359764052]
現代のロボットプラットフォームは、人間の横で毎日運用するために、信頼性の高いローカライゼーションシステムを必要としている。
フィルタされた車輪と慣性オドメトリーに基づく単純なポーズ推定アルゴリズムは、急激なキネマティックな変化とホイールスリップの存在下で失敗することが多い。
本稿では,車輪形状補正のための革新的なオンライン学習手法を提案し,ロバストなマルチソースローカライゼーションシステムを提案する。
論文 参考訳(メタデータ) (2023-03-21T10:30:31Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z) - Don't Start From Scratch: Leveraging Prior Data to Automate Robotic
Reinforcement Learning [70.70104870417784]
強化学習(RL)アルゴリズムは、ロボットシステムの自律的なスキル獲得を可能にするという約束を持っている。
現実のロボットRLは、通常、環境をリセットするためにデータ収集と頻繁な人間の介入を必要とする。
本研究では,従来のタスクから収集した多様なオフラインデータセットを効果的に活用することで,これらの課題にどのように対処できるかを検討する。
論文 参考訳(メタデータ) (2022-07-11T08:31:22Z) - Revisiting the Adversarial Robustness-Accuracy Tradeoff in Robot
Learning [121.9708998627352]
近年の研究では、現実的なロボット学習の応用において、対人訓練の効果が公平なトレードオフを起こさないことが示されている。
本研究は,ロボット学習におけるロバストネスと精度のトレードオフを再考し,最近のロバストトレーニング手法と理論の進歩により,現実のロボット応用に適した対人トレーニングが可能かどうかを解析する。
論文 参考訳(メタデータ) (2022-04-15T08:12:15Z) - Thinking While Moving: Deep Reinforcement Learning with Concurrent
Control [122.49572467292293]
本研究では,制御システムの時間的進化とともに,ポリシーからのアクションのサンプリングを同時に行わなければならないような環境下での強化学習について検討する。
人や動物のように、ロボットは思考と移動を同時に行わなければならず、前の動作が完了する前に次の動作を決定する。
論文 参考訳(メタデータ) (2020-04-13T17:49:29Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。