論文の概要: SafeFlowMPC: Predictive and Safe Trajectory Planning for Robot Manipulators with Learning-based Policies
- arxiv url: http://arxiv.org/abs/2602.12794v2
- Date: Tue, 17 Feb 2026 09:36:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.431639
- Title: SafeFlowMPC: Predictive and Safe Trajectory Planning for Robot Manipulators with Learning-based Policies
- Title(参考訳): SafeFlowMPC:学習型ポリシを持つロボットマニピュレータの予測的かつ安全な軌道計画
- Authors: Thies Oelerich, Gerald Ebmer, Christian Hartl-Nesic, Andreas Kugi,
- Abstract要約: 本研究は,フローマッチングとオンライン最適化を組み合わせたSafeFlowMPCを提案する。
SafeFlowMPCは、KUKA 7-DoFマニピュレータ上での3つの実世界の実験で高い性能を達成する。
- 参考スコア(独自算出の注目度): 4.441252199032043
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The emerging integration of robots into everyday life brings several major challenges. Compared to classical industrial applications, more flexibility is needed in combination with real-time reactivity. Learning-based methods can train powerful policies based on demonstrated trajectories, such that the robot generalizes a task to similar situations. However, these black-box models lack interpretability and rigorous safety guarantees. Optimization-based methods provide these guarantees but lack the required flexibility and generalization capabilities. This work proposes SafeFlowMPC, a combination of flow matching and online optimization to combine the strengths of learning and optimization. This method guarantees safety at all times and is designed to meet the demands of real-time execution by using a suboptimal model-predictive control formulation. SafeFlowMPC achieves strong performance in three real-world experiments on a KUKA 7-DoF manipulator, namely two grasping experiment and a dynamic human-robot object handover experiment. A video of the experiments is available at http://www.acin.tuwien.ac.at/42d6. The code is available at https://github.com/TU-Wien-ACIN-CDS/SafeFlowMPC.
- Abstract(参考訳): ロボットの日常生活への新たな統合は、いくつかの大きな課題をもたらしている。
古典的な産業アプリケーションと比較して、リアルタイムの反応性と組み合わせて、より柔軟性が必要である。
学習に基づく手法は、ロボットがタスクを同様の状況に一般化するように、実証的な軌道に基づいて強力なポリシーを訓練することができる。
しかし、これらのブラックボックスモデルには解釈可能性や厳格な安全保証がない。
最適化ベースの手法はこれらの保証を提供するが、必要な柔軟性と一般化能力は欠如している。
本研究は,フローマッチングとオンライン最適化を組み合わせたSafeFlowMPCを提案する。
この方法は、常に安全を保証し、準最適モデル予測制御の定式化を用いて、リアルタイム実行の要求を満たすように設計されている。
SafeFlowMPCは、KUKA 7-DoFマニピュレータの3つの現実世界実験、すなわち2つの把握実験と動的人間ロボットオブジェクトハンドオーバ実験において、高い性能を達成する。
実験のビデオはhttp://www.acin.tuwien.ac.at/42d6で公開されている。
コードはhttps://github.com/TU-Wien-ACIN-CDS/SafeFlowMPCで公開されている。
関連論文リスト
- Composable Model-Free RL for Navigation with Input-Affine Systems [3.2917282915992883]
自律型ロボットが複雑でダイナミックな現実世界の環境に移動するとき、彼らはリアルタイムで安全にナビゲートすることを学ぶ必要がある。
本研究では,各環境要素の値関数と最適ポリシーを学習する構成可能なモデルフリー強化学習手法を提案する。
論文 参考訳(メタデータ) (2026-02-13T00:19:35Z) - Scalable Dexterous Robot Learning with AR-based Remote Human-Robot Interactions [8.111267700755986]
本稿では,手軽なロボットアームハンドシステムにおける操作のためのスケーラブルなロボット学習に焦点を当てた。
本稿では,汎用的な操作タスク問題に対処するための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-07T03:47:21Z) - Q-learning-based Model-free Safety Filter [6.391687991642366]
本稿では, シンプルな, プラグイン・アンド・プレイ, 効果的なモデルフリーな安全フィルタ学習フレームワークを提案する。
我々は、新しい報酬定式化を導入し、Q-ラーニングを用いてQ-値関数を学習し、任意のタスク固有の名目ポリシーを保護します。
論文 参考訳(メタデータ) (2024-11-29T16:16:59Z) - One-Shot Safety Alignment for Large Language Models via Optimal Dualization [64.52223677468861]
本稿では,制約付きアライメントを等価な非制約アライメント問題に還元する双対化の観点を提案する。
我々は、閉形式を持つ滑らかで凸な双対函数を事前に最適化する。
我々の戦略は、モデルベースと嗜好ベースの設定における2つの実用的なアルゴリズムに導かれる。
論文 参考訳(メタデータ) (2024-05-29T22:12:52Z) - Safety Correction from Baseline: Towards the Risk-aware Policy in
Robotics via Dual-agent Reinforcement Learning [64.11013095004786]
本稿では,ベースラインと安全エージェントからなる二重エージェント型安全強化学習戦略を提案する。
このような分離されたフレームワークは、RLベースの制御に対して高い柔軟性、データ効率、リスク認識を可能にする。
提案手法は,難易度の高いロボットの移動・操作作業において,最先端の安全RLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2022-12-14T03:11:25Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Safe Imitation Learning of Nonlinear Model Predictive Control for Flexible Robots [6.501150406218775]
模擬学習と予測安全フィルタを用いたモデル予測制御(NMPC)の安全な近似のためのフレームワークを提案する。
NMPCと比較して、シミュレーションにおいて3次元フレキシブルロボットアームを制御する場合、計算時間は8倍以上改善されている。
高速で安全な近似NMPCの開発は、産業における柔軟なロボットの採用を加速する可能性を秘めている。
論文 参考訳(メタデータ) (2022-12-06T12:54:08Z) - Fast Lifelong Adaptive Inverse Reinforcement Learning from Demonstrations [2.1858709012908903]
我々は,新しいLfDフレームワークであるFast Lifelong Adaptive Inverse Reinforcement Learning (FLAIR)を提案する。
FLAIRが適応性(ロボットが不均一でユーザ固有のタスク嗜好に適応する)、効率(ロボットがサンプル効率のよい適応を達成する)、スケーラビリティを実証的に検証する。
FLAIRは3つのコントロールタスクでベンチマークを上回り、ポリシーリターンが平均57%改善し、デモモデリングに必要なエピソードが平均78%減少した。
論文 参考訳(メタデータ) (2022-09-24T02:48:02Z) - Closing the Closed-Loop Distribution Shift in Safe Imitation Learning [80.05727171757454]
模倣学習問題において,安全な最適化に基づく制御戦略を専門家として扱う。
我々は、実行時に安価に評価でき、専門家と同じ安全保証を確実に満足する学習されたポリシーを訓練する。
論文 参考訳(メタデータ) (2021-02-18T05:11:41Z) - Cautious Reinforcement Learning with Logical Constraints [78.96597639789279]
適応型安全なパッドディングは、学習プロセス中の安全性を確保しつつ、RL(Reinforcement Learning)に最適な制御ポリシーの合成を強制する。
理論的な保証は、合成されたポリシーの最適性と学習アルゴリズムの収束について利用できる。
論文 参考訳(メタデータ) (2020-02-26T00:01:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。