論文の概要: Learning Visualization Policies of Augmented Reality for Human-Robot
Collaboration
- arxiv url: http://arxiv.org/abs/2211.07028v1
- Date: Sun, 13 Nov 2022 22:03:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 21:33:31.972001
- Title: Learning Visualization Policies of Augmented Reality for Human-Robot
Collaboration
- Title(参考訳): ロボット協調のための拡張現実の可視化
- Authors: Kishan Chandan, Jack Albertson, Shiqi Zhang
- Abstract要約: 人間とロボットのコラボレーション領域では、拡張現実(AR)技術により、ロボットの状態を視覚化することができる。
現在のARベースの可視化ポリシーは手作業で設計されており、多くの人的努力とドメイン知識が必要です。
VARILと呼ばれるフレームワークを開発し、ARエージェントがデモから可視化ポリシーを学習できるようにする。
- 参考スコア(独自算出の注目度): 5.400491728405083
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In human-robot collaboration domains, augmented reality (AR) technologies
have enabled people to visualize the state of robots. Current AR-based
visualization policies are designed manually, which requires a lot of human
efforts and domain knowledge. When too little information is visualized, human
users find the AR interface not useful; when too much information is
visualized, they find it difficult to process the visualized information. In
this paper, we develop a framework, called VARIL, that enables AR agents to
learn visualization policies (what to visualize, when, and how) from
demonstrations. We created a Unity-based platform for simulating warehouse
environments where human-robot teammates collaborate on delivery tasks. We have
collected a dataset that includes demonstrations of visualizing robots' current
and planned behaviors. Results from experiments with real human participants
show that, compared with competitive baselines from the literature, our learned
visualization strategies significantly increase the efficiency of human-robot
teams, while reducing the distraction level of human users. VARIL has been
demonstrated in a built-in-lab mock warehouse.
- Abstract(参考訳): 人間とロボットのコラボレーション領域では、拡張現実(AR)技術により、ロボットの状態を視覚化することができる。
現在のARベースの可視化ポリシーは手作業で設計されており、多くの人的努力とドメイン知識が必要です。
情報が可視化されすぎると、人間ユーザはarインターフェースが役に立たないことに気付く。
本稿では、ARエージェントがデモから可視化ポリシー(何、いつ、どのように視覚化するか)を学習できるようにするVARILと呼ばれるフレームワークを開発する。
私たちは、人間とロボットのチームメイトがデリバリタスクで協力する倉庫環境をシミュレートするUnityベースのプラットフォームを作りました。
ロボットの現在および計画された振る舞いを視覚化するデモを含むデータセットを収集した。
実際の人間の被験者による実験の結果、文献の競争ベースラインと比較すると、学習した可視化戦略は人間のロボットチームの効率を著しく向上し、ユーザーの気晴らしレベルを低下させます。
VARILは、組み込みのモックウェアハウスで実証されている。
関連論文リスト
- ARCap: Collecting High-quality Human Demonstrations for Robot Learning with Augmented Reality Feedback [21.9704438641606]
本稿では,拡張現実(AR)と触覚警告を通じて視覚的フィードバックを提供する携帯型データ収集システムARCapを提案する。
ARCapから収集されたデータにより、ロボットは散らかった環境での操作や長い水平交叉操作といった困難なタスクを実行できる。
論文 参考訳(メタデータ) (2024-10-11T02:30:46Z) - VITAL: Visual Teleoperation to Enhance Robot Learning through Human-in-the-Loop Corrections [10.49712834719005]
本稿では,VITAL と呼ばれる双方向操作作業のための低コストな視覚遠隔操作システムを提案する。
われわれのアプローチは、安価なハードウェアとビジュアル処理技術を利用してデモを収集する。
実環境と模擬環境の両方を活用することにより,学習方針の一般化性と堅牢性を高める。
論文 参考訳(メタデータ) (2024-07-30T23:29:47Z) - Improving Visual Perception of a Social Robot for Controlled and
In-the-wild Human-robot Interaction [10.260966795508569]
ソーシャルロボットが深層学習に基づく視覚知覚モデルを採用すると、客観的相互作用性能と主観的ユーザ体験がどう影響するかは明らかでない。
我々は、ペッパーロボットの視覚知覚機能を改善するために、最先端の人間の知覚と追跡モデルを用いている。
論文 参考訳(メタデータ) (2024-03-04T06:47:06Z) - Voila-A: Aligning Vision-Language Models with User's Gaze Attention [56.755993500556734]
視覚言語モデル(VLM)を導くために,人間の注意の代用として視線情報を導入する。
本稿では,視線アライメントのための新しいアプローチであるVoila-Aを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:34:01Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - Affordances from Human Videos as a Versatile Representation for Robotics [31.248842798600606]
我々は、人間がどこでどのように対話するかを推定する視覚的余裕モデルを訓練する。
これらの行動割当の構造は、ロボットが多くの複雑なタスクを直接実行できるようにする。
私たちは、VRBと呼ばれる4つの現実世界環境、10以上のタスクと2つのロボットプラットフォームにおいて、私たちのアプローチの有効性を示します。
論文 参考訳(メタデータ) (2023-04-17T17:59:34Z) - An Augmented Reality Platform for Introducing Reinforcement Learning to
K-12 Students with Robots [10.835598738100359]
本研究では,学習の隠れ状態を明らかにする拡張現実(AR)システムを提案する。
本稿では,システムの設計と実装について述べるとともに,今後の2つの方向性について議論する。
論文 参考訳(メタデータ) (2021-10-10T03:51:39Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - A Framework for Efficient Robotic Manipulation [79.10407063260473]
単一のロボットアームがピクセルからスパースリワード操作ポリシーを学習できることを示します。
デモは10回しかなく、単一のロボットアームがピクセルからスパースリワード操作のポリシーを学習できることを示しています。
論文 参考訳(メタデータ) (2020-12-14T22:18:39Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。