論文の概要: Learning to Control Complex Robots Using High-Dimensional Interfaces:
Preliminary Insights
- arxiv url: http://arxiv.org/abs/2110.04663v1
- Date: Sat, 9 Oct 2021 23:38:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 19:14:11.494134
- Title: Learning to Control Complex Robots Using High-Dimensional Interfaces:
Preliminary Insights
- Title(参考訳): 高次元インタフェースを用いた複雑なロボットの制御:予備的考察
- Authors: Jongmin M. Lee, Temesgen Gebrekristos, Dalia De Santis, Mahdieh
Nejati-Javaremi, Deepak Gopinath, Biraj Parikh, Ferdinando A. Mussa-Ivaldi,
Brenna D. Argall
- Abstract要約: 7自由度ロボットアームを制御するための入力として、モーションセンサーで捉えた上半身の限られた動きを探索する。
密度の高いセンサ信号でさえ、信頼性の高い高次元ロボット制御に必要な健全な情報や独立性を欠いている可能性がある。
- 参考スコア(独自算出の注目度): 22.719193009150867
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Human body motions can be captured as a high-dimensional continuous signal
using motion sensor technologies. The resulting data can be surprisingly rich
in information, even when captured from persons with limited mobility. In this
work, we explore the use of limited upper-body motions, captured via motion
sensors, as inputs to control a 7 degree-of-freedom assistive robotic arm. It
is possible that even dense sensor signals lack the salient information and
independence necessary for reliable high-dimensional robot control. As the
human learns over time in the context of this limitation, intelligence on the
robot can be leveraged to better identify key learning challenges, provide
useful feedback, and support individuals until the challenges are managed. In
this short paper, we examine two uninjured participants' data from an ongoing
study, to extract preliminary results and share insights. We observe
opportunities for robot intelligence to step in, including the identification
of inconsistencies in time spent across all control dimensions, asymmetries in
individual control dimensions, and user progress in learning. Machine reasoning
about these situations may facilitate novel interface learning in the future.
- Abstract(参考訳): 人体の動きは、モーションセンサー技術を用いて高次元連続信号として捉えることができる。
その結果得られるデータは、モビリティの低い人から取得した場合でも、驚くほど情報に富んでいる。
本研究では,ロボットアームを7自由度制御するための入力として,運動センサで捉えた上半身動作の制限について検討する。
密度の高いセンサ信号でさえ、信頼性の高い高次元ロボット制御に必要な情報や独立性を欠いている可能性がある。
人間はこの制限の文脈で時間とともに学習するので、ロボットの知性を利用して重要な学習課題を特定し、有益なフィードバックを提供し、課題が管理されるまで個人をサポートすることができる。
本稿では,現在進行中の研究から,損傷のない2人の被験者のデータを調査し,予備的な結果の抽出と洞察の共有を行う。
ロボットインテリジェンスは、すべての制御次元に費やされた時間の矛盾の特定、個々の制御次元の非対称性、学習におけるユーザの進歩など、ステップインする機会を観察する。
これらの状況に関するマシン推論は、将来新しいインターフェイス学習を促進するかもしれない。
関連論文リスト
- Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - Teaching Unknown Objects by Leveraging Human Gaze and Augmented Reality
in Human-Robot Interaction [3.1473798197405953]
この論文は、人間-ロボットインタラクション(HRI)の文脈で未知の物体を教えることを目的としている。
視線追跡と拡張現実(Augmented Reality)を組み合わせることで、人間の教師がロボットとコミュニケーションできる強力なシナジーが生まれました。
ロボットの物体検出能力は、広範囲なデータセットで訓練された最先端の物体検出器に匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-12-12T11:34:43Z) - Bridging Active Exploration and Uncertainty-Aware Deployment Using
Probabilistic Ensemble Neural Network Dynamics [11.946807588018595]
本稿では,活発な探索と不確実性を考慮した展開を橋渡しするモデルベース強化学習フレームワークを提案する。
探索と展開の対立する2つのタスクは、最先端のサンプリングベースのMPCによって最適化されている。
自動運転車と車輪付きロボットの両方で実験を行い、探索と展開の両方に有望な結果を示します。
論文 参考訳(メタデータ) (2023-05-20T17:20:12Z) - BC-Z: Zero-Shot Task Generalization with Robotic Imitation Learning [108.41464483878683]
本稿では,視覚に基づくロボット操作システムにおいて,新しいタスクを一般化することの課題について検討する。
実演と介入の両方から学ぶことができるインタラクティブで柔軟な模倣学習システムを開発した。
実際のロボットにおけるデータ収集を100以上のタスクにスケールすると、このシステムは平均的な成功率44%で24の目に見えない操作タスクを実行できる。
論文 参考訳(メタデータ) (2022-02-04T07:30:48Z) - Dual-Arm Adversarial Robot Learning [0.6091702876917281]
ロボット学習のためのプラットフォームとしてデュアルアーム設定を提案する。
このセットアップの潜在的なメリットと、追求できる課題と研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-10-15T12:51:57Z) - What Matters in Learning from Offline Human Demonstrations for Robot
Manipulation [64.43440450794495]
ロボット操作のための6つのオフライン学習アルゴリズムについて広範な研究を行う。
我々の研究は、オフラインの人間のデータから学習する際の最も重要な課題を分析します。
人間のデータセットから学ぶ機会を強調します。
論文 参考訳(メタデータ) (2021-08-06T20:48:30Z) - Low Dimensional State Representation Learning with Robotics Priors in
Continuous Action Spaces [8.692025477306212]
強化学習アルゴリズムは、エンドツーエンドで複雑なロボティクスタスクを解くことができることが証明されている。
本稿では,ロボットの生の知覚情報から得られる高次元の観察から,低次元状態表現の学習と最適ポリシーの学習を組み合わせた枠組みを提案する。
論文 参考訳(メタデータ) (2021-07-04T15:42:01Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - The Ingredients of Real-World Robotic Reinforcement Learning [71.92831985295163]
実世界で収集されたデータによって継続的に自律的に改善できるロボット学習システムに必要な要素について論じる。
本稿では,このようなシステムの特異なインスタンス化を事例として,デクスタラスな操作を事例として提案する。
我々は人間の介入なしに学習できることを実証し、現実世界の3本指の手で様々な視覚ベースのスキルを習得する。
論文 参考訳(メタデータ) (2020-04-27T03:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。