論文の概要: Model Mediated Teleoperation with a Hand-Arm Exoskeleton in Long Time
Delays Using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2107.00359v1
- Date: Thu, 1 Jul 2021 10:49:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-02 13:53:52.190723
- Title: Model Mediated Teleoperation with a Hand-Arm Exoskeleton in Long Time
Delays Using Reinforcement Learning
- Title(参考訳): 強化学習を用いた手関節外骨格を用いた長期遅延時の模型遠隔操作
- Authors: Hadi Beik-Mohammadi, Matthias Kerzel, Benedikt Pleintinger, Thomas
Hulin, Philipp Reisich, Annika Schmidt, Aaron Pereira, Stefan Wermter, Neal
Y. Lii
- Abstract要約: 本稿では,RL と Model Mediated Teleoperation (MMT) の概念を統合することを提案する。
Teleoperatorはシミュレーションされた仮想環境と対話し、即時フィードバックを提供する。
その結果、RL法は、実演後のオブジェクト位置に変化を加えると、異なる解を見つけることができることがわかった。
- 参考スコア(独自算出の注目度): 14.044497137767518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Telerobotic systems must adapt to new environmental conditions and deal with
high uncertainty caused by long-time delays. As one of the best alternatives to
human-level intelligence, Reinforcement Learning (RL) may offer a solution to
cope with these issues. This paper proposes to integrate RL with the Model
Mediated Teleoperation (MMT) concept. The teleoperator interacts with a
simulated virtual environment, which provides instant feedback. Whereas
feedback from the real environment is delayed, feedback from the model is
instantaneous, leading to high transparency. The MMT is realized in combination
with an intelligent system with two layers. The first layer utilizes Dynamic
Movement Primitives (DMP) which accounts for certain changes in the avatar
environment. And, the second layer addresses the problems caused by uncertainty
in the model using RL methods. Augmented reality was also provided to fuse the
avatar device and virtual environment models for the teleoperator. Implemented
on DLR's Exodex Adam hand-arm haptic exoskeleton, the results show RL methods
are able to find different solutions when changes are applied to the object
position after the demonstration. The results also show DMPs to be effective at
adapting to new conditions where there is no uncertainty involved.
- Abstract(参考訳): テレロボティックシステムは、新しい環境条件に適応し、長期間の遅延による高い不確実性に対処する必要がある。
人間レベルの知能の最良の代替手段の1つとして、強化学習(RL)はこれらの問題に対処するためのソリューションを提供するかもしれない。
本稿では,RL と Model Mediated Teleoperation (MMT) の概念を統合することを提案する。
Teleoperatorはシミュレーションされた仮想環境と対話し、即時フィードバックを提供する。
実際の環境からのフィードバックは遅れるが、モデルからのフィードバックは瞬時に行われ、高い透明性をもたらす。
MMTは、2層からなるインテリジェントシステムと組み合わせて実現される。
第1層は動的運動原始(DMP)を使用し、アバター環境の特定の変化を考慮に入れている。
そして、第2層は、RL法によるモデルの不確実性に起因する問題に対処する。
テレオペレーター用のアバターデバイスと仮想環境モデルを融合するために拡張現実も提供された。
DLRのExodex Adamの手腕触覚外骨格に実装したところ、RL法は実演後の物体位置に変化を加えると、異なる解を見つけることができることがわかった。
また,DMPは不確実性のない新しい条件に適応する上でも有効であることが示された。
関連論文リスト
- Mitigating Covariate Shift in Imitation Learning for Autonomous Vehicles Using Latent Space Generative World Models [60.87795376541144]
World Model(ワールドモデル)は、エージェントの次の状態を予測できるニューラルネットワークである。
エンド・ツー・エンドのトレーニングでは、人間のデモで観察された状態と整合してエラーから回復する方法を学ぶ。
クローズドループ試験における先行技術に有意な改善がみられた定性的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-09-25T06:48:25Z) - Reinforcement Learning Meets Visual Odometry [22.34784125002176]
我々は、ビジュアルオドメトリ(VO)を意思決定タスクとみなし、強化学習(RL)をVOプロセスの動的適応に適用する。
このアプローチでは,VOパイプライン内のエージェントとして動作するニューラルネットワークを導入して,シーケンシャルおよびグリッドサイズ選択などの決定を行う。
提案手法は,ポーズエラーや実行時,その他のメトリクスに基づいた報酬関数を用いて,選択への依存を最小限に抑える。
論文 参考訳(メタデータ) (2024-07-22T13:37:55Z) - Real-Time Anomaly Detection and Reactive Planning with Large Language Models [18.57162998677491]
例えば、大規模な言語モデル(LLM)は、インターネットスケールのデータに基づいて訓練され、ゼロショット機能を持つ。
本稿では,潜在的な異常に関する判断を安全な制御フレームワークに組み込む2段階の推論フレームワークを提案する。
これにより、モニターは、四輪車や自動運転車のような動的ロボットシステムの信頼性を向上させることができる。
論文 参考訳(メタデータ) (2024-07-11T17:59:22Z) - HAZARD Challenge: Embodied Decision Making in Dynamically Changing
Environments [93.94020724735199]
HAZARDは、火災、洪水、風などの3つの予期せぬ災害シナリオで構成されている。
このベンチマークにより、さまざまなパイプラインで自律エージェントの意思決定能力を評価することができる。
論文 参考訳(メタデータ) (2024-01-23T18:59:43Z) - Multi-Agent Deep Reinforcement Learning for Dynamic Avatar Migration in
AIoT-enabled Vehicular Metaverses with Trajectory Prediction [70.9337170201739]
本稿では,その歴史データに基づいて,知的車両の将来の軌跡を予測するモデルを提案する。
提案アルゴリズムは,予測なしでアバタータスクの実行遅延を約25%削減できることを示す。
論文 参考訳(メタデータ) (2023-06-26T13:27:11Z) - DiAReL: Reinforcement Learning with Disturbance Awareness for Robust
Sim2Real Policy Transfer in Robot Control [0.0]
遅延マルコフ決定プロセスは、最近コミットされたアクションの有限時間ウィンドウでエージェントの状態空間を拡大することでマルコフ特性を満たす。
本稿では,遅延した環境下での乱れ増進型マルコフ決定プロセスを導入し,政治強化学習アルゴリズムのトレーニングにおける乱れ推定を取り入れた新しい表現法を提案する。
論文 参考訳(メタデータ) (2023-06-15T10:11:38Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - OSCAR: Data-Driven Operational Space Control for Adaptive and Robust
Robot Manipulation [50.59541802645156]
オペレーショナル・スペース・コントロール(OSC)は、操作のための効果的なタスクスペース・コントローラとして使われてきた。
本稿では,データ駆動型OSCのモデル誤差を補償するOSC for Adaptation and Robustness (OSCAR)を提案する。
本手法は,様々なシミュレーション操作問題に対して評価し,制御器のベースラインの配列よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2021-10-02T01:21:38Z) - Learning Vision-Guided Quadrupedal Locomotion End-to-End with
Cross-Modal Transformers [14.509254362627576]
強化学習(RL)を用いた四足歩行課題への取り組みを提案する。
四足歩行のためのエンドツーエンドRL法であるLocoTransformerを導入する。
論文 参考訳(メタデータ) (2021-07-08T17:41:55Z) - MELD: Meta-Reinforcement Learning from Images via Latent State Models [109.1664295663325]
我々は,遅延状態モデルで推論を行う画像からメタRLのアルゴリズムを開発し,新しいスキルを素早く獲得する。
MELDは、画像から現実のロボット制御設定でトレーニングされた最初のメタRLアルゴリズムである。
論文 参考訳(メタデータ) (2020-10-26T23:50:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。