論文の概要: HRI-SA: A Multimodal Dataset for Online Assessment of Human Situational Awareness during Remote Human-Robot Teaming
- arxiv url: http://arxiv.org/abs/2603.18344v1
- Date: Wed, 18 Mar 2026 23:02:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-20 17:19:05.877213
- Title: HRI-SA: A Multimodal Dataset for Online Assessment of Human Situational Awareness during Remote Human-Robot Teaming
- Title(参考訳): HRI-SA:遠隔ロボットチームにおける人的状況認識のオンライン評価のためのマルチモーダルデータセット
- Authors: Hashini Senaratne, Richard Attfield, Samith Widhanapathirana, David Howard, Cecile Paris, Dana Kulic, Leimin Tian,
- Abstract要約: HRI-SAは,30人の参加者による,リアルな検索と救助を行う人間-ロボットのコラボレーションコンテキストにおけるマルチモーダルデータセットである。
本稿では,人間ロボットチームにおける状況認識の体系的評価を支援する最初の公開データセットを提案する。
また、遠隔ロボットチームにおける知覚的SA遅延検出のための一般的な視線追跡機能の可能性を示す。
- 参考スコア(独自算出の注目度): 3.7527367870357575
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Maintaining situational awareness (SA) is critical in human-robot teams. Yet, under high workload and dynamic conditions, operators often experience SA gaps. Automated detection of SA gaps could provide timely assistance for operators. However, conventional SA measures either disrupt task flow or cannot capture real-time fluctuations, limiting their operational utility. To the best of our knowledge, no publicly available dataset currently supports the systematic evaluation of online human SA assessment in human-robot teaming. To advance the development of online SA assessment tools, we introduce HRI-SA, a multimodal dataset from 30 participants in a realistic search-and-rescue human-robot teaming context, incorporating eye movements, pupil diameter, biosignals, user interactions, and robot data. The experimental protocol included predefined events requiring timely operator assistance, with ground truth SA latency of two types (perceptual and comprehension) systematically obtained by measuring the time between assistance need onset and resolution. We illustrate the utility of this dataset by evaluating standard machine learning models for detecting perceptual SA latencies using generic eye-tracking features and contextual features. Results show that eye-tracking features alone effectively classified perceptual SA latency (recall=88.91%, F1=67.63%) using leave-one-group-out cross-validation, with performance improved through contextual data fusion (recall=91.51%, F1=80.38%). This paper contributes the first public dataset supporting the systematic evaluation of SA throughout a human-robot teaming mission, while also demonstrating the potential of generic eye-tracking features for continuous perceptual SA latency detection in remote human-robot teaming.
- Abstract(参考訳): 状況認識(SA)を維持することは、人間ロボットチームにとって重要である。
しかし、高いワークロードと動的条件下では、オペレータはしばしばSAギャップを経験する。
SAギャップの自動検出は、オペレーターにタイムリーな支援を提供する。
しかし、従来のSA対策はタスクフローを妨害するか、リアルタイムの変動を捉えず、運用上の有用性を制限している。
我々の知る限りでは、人間ロボットチームにおけるオンライン人間SAアセスメントの体系的評価をサポートするデータセットは現在公開されていない。
オンラインSAアセスメントツールの開発を進めるために,HRI-SAを紹介した。HRI-SAは30人の参加者による,現実的な検索と救助の人間とロボットのコラボレーションコンテキストにおいて,眼球運動,瞳径,生体信号,ユーザインタラクション,ロボットデータなどを取り入れたマルチモーダルデータセットである。
実験プロトコルには、タイムリーなオペレーター支援を必要とする事前定義されたイベントが含まれており、2つのタイプ(知覚的および理解的)のSAレイテンシーは、アシストのオンセットと解決の間の時間を測定することで体系的に得られる。
本稿では、一般的な視線追跡機能とコンテキスト特徴を用いて知覚的SA遅延を検出するための標準的な機械学習モデルを評価することにより、このデータセットの有用性について説明する。
その結果、視線追跡機能だけでは、コンテキストデータ融合(リコール=91.51%、F1=80.38%)により、Left-one-group-outクロスバリデーションを使用して、知覚SA遅延(リコール=88.91%、F1=67.63%)を効果的に分類できた。
本稿では,人間ロボットチームにおけるSAの系統的評価を支援する最初の公開データセットを提供するとともに,遠隔ロボットチームにおける連続的な知覚的SA遅延検出のための一般的な視線追跡機能の可能性を示す。
関連論文リスト
- A Distributed Multi-Modal Sensing Approach for Human Activity Recognition in Real-Time Human-Robot Collaboration [41.43425233041408]
本稿では,慣性計測ユニットを備えたモジュール型データグローブと,ロボットとの接触時の手の動きを捉える視覚ベースの触覚センサを組み合わせたHARシステムを提案する。
我々は,セグメント化シーケンスのオフライン分類,静的条件下でのリアルタイム分類,現実的なHRCシナリオなど,さまざまな条件下で活動認識アプローチを検証した。
実験の結果、全てのタスクに対して高い精度が示され、複数の協調的な設定がこのマルチモーダルアプローチの恩恵を受ける可能性が示唆された。
論文 参考訳(メタデータ) (2026-02-02T10:14:19Z) - Real-Time Assessment of Bystander Situation Awareness in Drone-Assisted First Aid [6.986130179800924]
ドローンによるラピッドナロキソンの配達は、オピオイド過量緊急事態(OOEs)への対応に有望な解決策を提供する
人間-自律チーム(HAT)における傍観者状況認識(SA)の役割について考察する。
本稿では,グラフ埋め込みとトランスフォーマーモデルを用いた映像ベースリアルタイムSAアセスメントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-03T23:11:30Z) - HHI-Assist: A Dataset and Benchmark of Human-Human Interaction in Physical Assistance Scenario [63.77482302352545]
HHI-Assist(ヒヒ・アシスト)は、人間の介助作業における人間のインタラクションのモーションキャプチャークリップからなるデータセットである。
私たちの研究は、ロボット支援ポリシーを大幅に強化する可能性がある。
論文 参考訳(メタデータ) (2025-09-12T09:38:17Z) - Analyzing Participants' Engagement during Online Meetings Using Unsupervised Remote Photoplethysmography with Behavioral Features [50.82725748981231]
エンゲージメント測定は、医療、教育、サービスに応用される。
生理的特徴と行動的特徴の使用は可能であるが、従来の生理的測定の非現実性は接触センサーの必要性により生じる。
コンタクトセンサの代替として, 教師なし光胸腺造影(胸腔鏡)の有用性を実証する。
論文 参考訳(メタデータ) (2024-04-05T20:39:16Z) - From Detection to Action Recognition: An Edge-Based Pipeline for Robot
Human Perception [5.262840821732319]
サービスロボットは人間の行動や意図を解釈するためにヒューマンアクション認識(HAR)に依存している。
本稿では,人間の検出と追跡から始まり,行動認識に至るプロセス全体を包含するエンドツーエンドパイプラインを提案する。
論文 参考訳(メタデータ) (2023-12-06T13:10:02Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Modeling Engagement in Long-Term, In-Home Socially Assistive Robot
Interventions for Children with Autism Spectrum Disorders [5.699538935722362]
この研究は、教師付き機械学習アルゴリズムを用いて、ASDの子供に対する長期的、家庭内SAR介入の文脈におけるユーザエンゲージメントをモデル化する。
ユーザ毎のエンゲージメントモデルとして, (i) 異なるユーザのデータに基づいてトレーニングされた一般化モデル, (ii) ユーザのデータの初期サブセットに基づいてトレーニングされた個別モデルがある。
実世界のHRI設定において,ユーザ・エンゲージメントに対する認識と応答の実現可能性と課題を検証した。
論文 参考訳(メタデータ) (2020-02-06T18:26:11Z) - Human Action Recognition and Assessment via Deep Neural Network
Self-Organization [0.0]
本章では,深度マップとRGB画像からの行動の学習と認識のための階層モデルを紹介する。
これらのモデルの特徴は、非定常分布に迅速に適応する自己組織化ネットワークの利用である。
論文 参考訳(メタデータ) (2020-01-04T15:58:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。