論文の概要: Projection Mapping Implementation: Enabling Direct Externalization of
Perception Results and Action Intent to Improve Robot Explainability
- arxiv url: http://arxiv.org/abs/2010.02263v3
- Date: Wed, 4 Nov 2020 16:06:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 22:15:29.370109
- Title: Projection Mapping Implementation: Enabling Direct Externalization of
Perception Results and Action Intent to Improve Robot Explainability
- Title(参考訳): 投影マッピング実装:知覚結果の直接外部化とロボット説明性向上のためのアクションインテントの実現
- Authors: Zhao Han, Alexander Wilkinson, Jenna Parrillo, Jordan Allspaw, Holly
A. Yanco
- Abstract要約: 既存の非言語的手がかり、例えば目視や腕の動きに関する研究は、ロボットの内部状態を正確に示さないかもしれない。
状態をロボットの動作環境に直接投影することは、直接的で正確でより健全であるという利点がある。
- 参考スコア(独自算出の注目度): 62.03014078810652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing research on non-verbal cues, e.g., eye gaze or arm movement, may not
accurately present a robot's internal states such as perception results and
action intent. Projecting the states directly onto a robot's operating
environment has the advantages of being direct, accurate, and more salient,
eliminating mental inference about the robot's intention. However, there is a
lack of tools for projection mapping in robotics, compared to established
motion planning libraries (e.g., MoveIt). In this paper, we detail the
implementation of projection mapping to enable researchers and practitioners to
push the boundaries for better interaction between robots and humans. We also
provide practical documentation and code for a sample manipulation projection
mapping on GitHub: https://github.com/uml-robotics/projection_mapping.
- Abstract(参考訳): 非言語的手がかり、例えば視線や腕の動きに関する既存の研究は、知覚結果や行動意図といったロボットの内部状態を正確に提示するものではない。
ロボットの動作環境に直接状態を投影することは、ロボットの意図に対する精神的推論を排除し、直接的で正確で、より健全であるという利点がある。
しかし、ロボット工学におけるプロジェクションマッピングのためのツールが、既存のモーションプランニングライブラリ(MoveItなど)と比べて不足している。
本稿では,ロボットと人間とのより優れたインタラクションを実現するために,研究者や実践者が境界を押し上げるプロジェクションマッピングの実装について詳述する。
GitHubでは、サンプル操作プロジェクションマッピングのための実用的なドキュメントやコードも提供しています。
関連論文リスト
- Polaris: Open-ended Interactive Robotic Manipulation via Syn2Real Visual Grounding and Large Language Models [53.22792173053473]
我々はPolarisという対話型ロボット操作フレームワークを紹介した。
ポラリスはGPT-4と接地された視覚モデルを利用して知覚と相互作用を統合する。
本稿では,Syn2Real(Synthetic-to-Real)ポーズ推定パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:40:38Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - What Matters to You? Towards Visual Representation Alignment for Robot
Learning [81.30964736676103]
人のために運用する場合、ロボットはエンドユーザーの好みに合わせて報酬を最適化する必要がある。
本稿では、視覚的表現アライメント問題を解決するためのRAPL(Representation-Aligned Preference-based Learning)を提案する。
論文 参考訳(メタデータ) (2023-10-11T23:04:07Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Reasoning with Scene Graphs for Robot Planning under Partial
Observability [7.121002367542985]
我々は,ロボットが視覚的文脈情報で推論できるロボット計画のためのシーン解析アルゴリズムを開発した。
シミュレーションで複数の3D環境と実際のロボットが収集したデータセットを用いて実験を行った。
論文 参考訳(メタデータ) (2022-02-21T18:45:56Z) - Learning User-Preferred Mappings for Intuitive Robot Control [28.183430654834307]
そこで本研究では,ロボットのクエリから,人間の好みのマッピングや事前認識のマッピングを学習する手法を提案する。
我々は、人間の地図に強い先行性があることを認識して、このアプローチをデータ効率良くする。
シミュレーションおよび実験結果から,入力とロボット動作のマッピングを学習することで,客観的および主観的パフォーマンスが向上することが示唆された。
論文 参考訳(メタデータ) (2020-07-22T18:54:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。