論文の概要: Training Human-Robot Teams by Improving Transparency Through a Virtual Spectator Interface
- arxiv url: http://arxiv.org/abs/2503.09849v1
- Date: Wed, 12 Mar 2025 21:13:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:51:13.552375
- Title: Training Human-Robot Teams by Improving Transparency Through a Virtual Spectator Interface
- Title(参考訳): 仮想スペクタインタフェースによる透明性向上による人間-ロボットチームのトレーニング
- Authors: Sean Dallas, Hongjiao Qiang, Motaz AbuHijleh, Wonse Jo, Kayla Riegner, Jon Smereka, Lionel Robert, Wing-Yue Louie, Dawn M. Tilbury,
- Abstract要約: アフターアクションレビュー(英: After-action Review、AAR)は、オペレーターとチームがタスクパフォーマンスを向上させるのに役立つ専門的な議論である。
我々は,人間のロボットチームパフォーマンスを向上させるために,VSI(Virtual Spectator Interface)と呼ばれる新しいトレーニングレビューツールを提案する。
- 参考スコア(独自算出の注目度): 2.1439287504046565
- License:
- Abstract: After-action reviews (AARs) are professional discussions that help operators and teams enhance their task performance by analyzing completed missions with peers and professionals. Previous studies that compared different formats of AARs have mainly focused on human teams. However, the inclusion of robotic teammates brings along new challenges in understanding teammate intent and communication. Traditional AAR between human teammates may not be satisfactory for human-robot teams. To address this limitation, we propose a new training review (TR) tool, called the Virtual Spectator Interface (VSI), to enhance human-robot team performance and situational awareness (SA) in a simulated search mission. The proposed VSI primarily utilizes visual feedback to review subjects' behavior. To examine the effectiveness of VSI, we took elements from AAR to conduct our own TR, designed a 1 x 3 between-subjects experiment with experimental conditions: TR with (1) VSI, (2) screen recording, and (3) non-technology (only verbal descriptions). The results of our experiments demonstrated that the VSI did not result in significantly better team performance than other conditions. However, the TR with VSI led to more improvement in the subjects SA over the other conditions.
- Abstract(参考訳): アフターアクションレビュー(英: After-action Review、AAR)は、運用担当者やチームが、同僚や専門家による完了したミッションを分析することで、タスクパフォーマンスの向上を支援するプロフェッショナルな議論である。
AARの異なるフォーマットを比較する以前の研究は、主に人間のチームに焦点を当ててきた。
しかし、ロボットチームメイトが加わったことで、チームメイトの意図とコミュニケーションを理解する上での新たな課題がもたらされる。
従来のチームメイト間のAARは、人間-ロボットチームにとって満足できないかもしれません。
この制限に対処するため,仮想スペクタ・インタフェース(VSI)と呼ばれる新しいトレーニング・レビュー・ツールを提案する。
提案したVSIは、主に視覚的フィードバックを利用して被験者の行動をレビューする。
実験条件として,(1)VSI,(2)スクリーン記録,(3)非技術(言語記述のみ)を用いた1×3物体間実験を設計した。
実験の結果,VSIは他の条件に比べてチームパフォーマンスが著しく向上しなかったことがわかった。
しかし,VSIを併用したTRでは,他の条件よりもSAが改善した。
関連論文リスト
- Human-Centric Aware UAV Trajectory Planning in Search and Rescue
Missions Employing Multi-Objective Reinforcement Learning with AHP and
Similarity-Based Experience Replay [0.0]
本稿では,UAV軌道計画における人中心的要因の影響について検討する。
包括的調査を通じて,UAV設計におけるジェンダー・キューと人格化が公衆の受容と信頼に与える影響を調査した。
論文 参考訳(メタデータ) (2024-02-28T17:10:22Z) - What Matters to You? Towards Visual Representation Alignment for Robot
Learning [81.30964736676103]
人のために運用する場合、ロボットはエンドユーザーの好みに合わせて報酬を最適化する必要がある。
本稿では、視覚的表現アライメント問題を解決するためのRAPL(Representation-Aligned Preference-based Learning)を提案する。
論文 参考訳(メタデータ) (2023-10-11T23:04:07Z) - Enhancing team performance with transfer-learning during real-world
human-robot collaboration [0.0]
伝達学習は深層強化学習(dRL)エージェントに統合された。
伝達学習(TL)における確率再利用手法
TLはまた、チームの主観的なパフォーマンスにも影響を与え、知覚された流感を高めました。
論文 参考訳(メタデータ) (2022-11-23T16:02:00Z) - Goal-Conditioned Reinforcement Learning in the Presence of an Adversary [0.0]
強化学習は、ここ数年で現実世界の文脈で応用が増えている。
これを戦うための一般的なアプローチは、敵の存在下でエージェントを訓練することである。
敵はエージェントを不安定にするために行動し、より堅牢なポリシーを学び、現実的な条件をうまく扱える。
本稿では,対戦相手に対する行動を支援する2つの新しい目標条件環境であるDigitFlipとCLEVR-Playを紹介する。
論文 参考訳(メタデータ) (2022-11-13T15:40:01Z) - Enhancing and Adversarial: Improve ASR with Speaker Labels [49.73714831258699]
そこで本研究では,チューニングを伴わない安定かつ効果的な対向訓練のための適応的勾配反転層を提案する。
ASRニューラルネットワーク(NN)の最適な位置を示すために、詳細な分析と実験的検証を行い、話者強化と対向訓練を適用した。
最高のスピーカーベースのMTLは、Switchboard Hub5'00の相対的な改善を7%達成しています。
論文 参考訳(メタデータ) (2022-11-11T17:40:08Z) - DIAMBRA Arena: a New Reinforcement Learning Platform for Research and
Experimentation [91.3755431537592]
本研究は、強化学習研究と実験のための新しいプラットフォームであるDIAMBRA Arenaを提示する。
高品質な環境のコレクションが,OpenAI Gym標準に完全に準拠したPython APIを公開している。
これらは、離散的なアクションと観測を生のピクセルと追加の数値で構成したエピソディックなタスクである。
論文 参考訳(メタデータ) (2022-10-19T14:39:10Z) - Game and Simulation Design for Studying Pedestrian-Automated Vehicle
Interactions [1.3764085113103217]
我々はまず,現場で現代的ツールを提示し,歩行者視点研究を促進する新しいアプリケーションの設計と開発を提案する。
我々は3段階のユーザ体験実験を行い、参加者は様々なシナリオでアプリケーションの使用前後で質問に答える。
論文 参考訳(メタデータ) (2021-09-30T15:26:18Z) - Evaluation of Human-AI Teams for Learned and Rule-Based Agents in Hanabi [0.0]
我々は,ルールベースエージェントと学習ベースエージェントの両方を用いて,協力型カードゲームEmphHanabiにおける人間とAIエージェントのチームを評価する。
人間は、最先端の学習ベースのAIチームメイトよりも、ルールベースのAIチームメイトをはっきりと好みます。
論文 参考訳(メタデータ) (2021-07-15T22:19:15Z) - An Empirical Study on the Generalization Power of Neural Representations
Learned via Visual Guessing Games [79.23847247132345]
本研究は,視覚質問応答(VQA)のような新しいNLP下流タスクにおいて,後から実行を依頼されたとき,人工エージェントが推測ゲームでどの程度の利益を得ることができるかを検討する。
提案手法は,1) エージェントがうまく推理ゲームを模倣することを学習する教師あり学習シナリオ,2) エージェントが単独でプレイする新しい方法,すなわち,反復経験学習(SPIEL)によるセルフプレイ(Self-play)を提案する。
論文 参考訳(メタデータ) (2021-01-31T10:30:48Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は、競合する社会的影響に基づく新しい学習メカニズムの提供に焦点を当てる。
本研究は,競争競合の概念に基づいて,これらのエージェントの評価を人的視点から変えられるかを検討することを目的とする。
論文 参考訳(メタデータ) (2020-11-02T21:54:18Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。