論文の概要: Vision-based Goal-Reaching Control for Mobile Robots Using a Hierarchical Learning Framework
- arxiv url: http://arxiv.org/abs/2601.00610v1
- Date: Fri, 02 Jan 2026 08:41:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.605839
- Title: Vision-based Goal-Reaching Control for Mobile Robots Using a Hierarchical Learning Framework
- Title(参考訳): 階層型学習フレームワークを用いた移動ロボットの視覚的ゴールリーチ制御
- Authors: Mehdi Heydari Shahna, Pauli Mustalahti, Jouni Mattila,
- Abstract要約: 本稿では,システム全体を密結合した関数モジュールの集合に分解する。
提案手法は,アクティベーションシステムの均一な指数的安定性と全動作の安全性を保証する。
- 参考スコア(独自算出の注目度): 4.014524824655106
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reinforcement learning (RL) is effective in many robotic applications, but it requires extensive exploration of the state-action space, during which behaviors can be unsafe. This significantly limits its applicability to large robots with complex actuators operating on unstable terrain. Hence, to design a safe goal-reaching control framework for large-scale robots, this paper decomposes the whole system into a set of tightly coupled functional modules. 1) A real-time visual pose estimation approach is employed to provide accurate robot states to 2) an RL motion planner for goal-reaching tasks that explicitly respects robot specifications. The RL module generates real-time smooth motion commands for the actuator system, independent of its underlying dynamic complexity. 3) In the actuation mechanism, a supervised deep learning model is trained to capture the complex dynamics of the robot and provide this model to 4) a model-based robust adaptive controller that guarantees the wheels track the RL motion commands even on slip-prone terrain. 5) Finally, to reduce human intervention, a mathematical safety supervisor monitors the robot, stops it on unsafe faults, and autonomously guides it back to a safe inspection area. The proposed framework guarantees uniform exponential stability of the actuation system and safety of the whole operation. Experiments on a 6,000 kg robot in different scenarios confirm the effectiveness of the proposed framework.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)は、多くのロボット応用において有効であるが、動作が安全でない状態空間を広範囲に探究する必要がある。
これは不安定な地形で作動する複雑なアクチュエータを備えた大型ロボットに適用性を大幅に制限する。
そこで,本稿では,大規模ロボットのための安全な目標到達制御フレームワークを設計するために,システムを一組の密結合機能モジュールに分解する。
1)正確なロボット状態を提供するために,リアルタイム視覚的ポーズ推定手法を用いる。
2)ロボット仕様を明確に尊重する目標達成タスクのためのRLモーションプランナ。
RLモジュールは、その基礎となる動的複雑さとは無関係に、アクチュエータシステムのためにリアルタイムな滑らかな動作コマンドを生成する。
3)アクティベーション機構では,ロボットの複雑なダイナミクスを捉えるために,教師付き深層学習モデルを訓練し,そのモデルを提供する。
4) 車輪が滑りやすい地形でもRL動作指令を追跡することを保証するモデルベースのロバスト適応制御器。
5)最後に、人間の介入を減らすため、数学的安全監督者がロボットを監視し、安全でない断層で停止し、自律的に安全な検査エリアに誘導する。
提案手法により,アクティベーションシステムの均一な指数的安定性と全動作の安全性が保証される。
6,000kgのロボットを異なるシナリオで実験した結果,提案手法の有効性が確認された。
関連論文リスト
- Robot-R1: Reinforcement Learning for Enhanced Embodied Reasoning in Robotics [55.05920313034645]
本稿では,ロボット制御に特化して具体的推論を強化するため,強化学習を活用した新しいフレームワークであるRobot-R1を紹介する。
DeepSeek-R1学習アプローチにインスパイアされたRobot-R1は、推論に基づく応答をサンプリングし、より正確な予測につながるものを強化する。
実験の結果,ロボットR1で訓練したモデルは,具体的推論タスクにおいて,SFT法よりも優れていた。
論文 参考訳(メタデータ) (2025-05-29T16:41:12Z) - RoboGrasp: A Universal Grasping Policy for Robust Robotic Control [8.189496387470726]
RoboGraspは、トレーニング済みの把握検出モデルとロボット学習を統合する、普遍的な把握ポリシーフレームワークである。
把握精度、安定性、一般化性を大幅に向上させ、数ショットの学習と把握ボックスのプロンプトタスクで最大34%の成功率を達成する。
論文 参考訳(メタデータ) (2025-02-05T11:04:41Z) - Robotic World Model: A Neural Network Simulator for Robust Policy Optimization in Robotics [50.191655141020505]
この研究は、長期水平予測、エラー蓄積、およびsim-to-real転送の課題に対処することで、モデルに基づく強化学習を前進させる。
スケーラブルでロバストなフレームワークを提供することで、現実のアプリケーションにおいて適応的で効率的なロボットシステムを実現することができる。
論文 参考訳(メタデータ) (2025-01-17T10:39:09Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [68.36528819227641]
本稿では,ビジョン・ランゲージ・アクション(VLA)モデルのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する2つの未目標攻撃目標と,ロボット軌道を操作する目標攻撃目標を導入する。
我々は、カメラの視野に小さなカラフルなパッチを配置し、デジタルと物理の両方の環境で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z) - Whole-body End-Effector Pose Tracking [10.426087117345096]
本研究では, 大規模作業空間におけるエンドエフェクタポーズトラッキングのための全身RL定式化手法を提案する。
提案手法は,ロボットの初期設定とエンドエフェクタポーズコマンドのための地形対応サンプリング戦略を含む。
展開時に2.64cmと3.64°のポーズ追跡誤差を達成し、既存の競争基準よりも優れている。
論文 参考訳(メタデータ) (2024-09-24T12:51:32Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - Reinforcement Learning for Versatile, Dynamic, and Robust Bipedal Locomotion Control [106.32794844077534]
本稿では,二足歩行ロボットのための動的移動制御系を構築するために,深層強化学習を用いた研究について述べる。
本研究では、周期歩行やランニングから周期ジャンプや立位に至るまで、様々な動的二足歩行技術に使用できる汎用的な制御ソリューションを開発する。
この研究は、二足歩行ロボットの俊敏性の限界を、現実世界での広範な実験を通じて押し上げる。
論文 参考訳(メタデータ) (2024-01-30T10:48:43Z) - Reinforcement Learning for Safe Robot Control using Control Lyapunov
Barrier Functions [9.690491406456307]
強化学習(RL)は、ロボットの複雑な制御タスクを管理する際の優れた性能を示す。
本稿では、データのみに基づいて安全性と到達可能性を分析するために、制御型リアプノフバリア関数(CLBF)について検討する。
また、Lyapunov barrier actor-critic (LBAC) を提案し、データに基づく安全性と到達性条件の近似を満足するコントローラを探索した。
論文 参考訳(メタデータ) (2023-05-16T20:27:02Z) - Modular Safety-Critical Control of Legged Robots [0.0]
脚付きロボットの操作時の安全上の懸念に対処し、広く使用できるようにする必要がある。
本研究は,脚付きロボットの安全性,すなわち転倒の可能性を低下させるモジュール型安全フィルタを提案する。
論文 参考訳(メタデータ) (2023-03-04T11:36:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。