論文の概要: A Diver Attention Estimation Framework for Effective Underwater Human-Robot Interaction
- arxiv url: http://arxiv.org/abs/2209.14447v2
- Date: Thu, 13 Mar 2025 03:06:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:49:20.913316
- Title: A Diver Attention Estimation Framework for Effective Underwater Human-Robot Interaction
- Title(参考訳): 水中ロボットの効果的なインタラクションのためのダイバーアテンション推定フレームワーク
- Authors: Sadman Sakib Enan, Junaed Sattar,
- Abstract要約: 近年の視覚に基づく水中HRI法の進歩は、トップサイドオペレーターの助けを必要とせずに、人間のパートナーと対話する能力を持っている。
これらの方法では、AUVはダイバーが相互作用する準備ができていると仮定するが、実際にはダイバーは邪魔される可能性がある。
本稿では、ダイバーの注意度を自律的に決定するための、AUVに対するダイバーアテンション推定フレームワークを提案する。
- 参考スコア(独自算出の注目度): 14.267807345588581
- License:
- Abstract: Many underwater tasks, such as cable-and-wreckage inspection and search-and-rescue, can benefit from robust Human-Robot Interaction (HRI) capabilities. With the recent advancements in vision-based underwater HRI methods, Autonomous Underwater Vehicles (AUVs) have the capability to interact with their human partners without requiring assistance from a topside operator. However, in these methods, the AUV assumes that the diver is ready for interaction, while in reality, the diver may be distracted. In this paper, we attempt to address this problem by presenting a diver attention estimation framework for AUVs to autonomously determine the attentiveness of a diver, and developing a robot controller to allow the AUV to navigate and reorient itself with respect to the diver before initiating interaction. The core element of the framework is a deep convolutional neural network called DATT-Net. It is based on a pyramid structure that can exploit the geometric relations among 10 facial keypoints of a diver to estimate their head orientation, which we use as an indicator of attentiveness. Our on-the-bench experimental evaluations and real-world experiments during both closed- and open-water robot trials confirm the efficacy of the proposed framework.
- Abstract(参考訳): ケーブル・アンド・ウォッケージ・インスペクションやサーチ・アンド・レスキューのような多くの水中タスクは、堅牢なヒューマン・ロボット・インタラクション(HRI)能力の恩恵を受けることができる。
近年の視覚に基づく水中HRI手法の進歩により、自律水中車両(AUV)は、トップサイドオペレーターの助けを必要とせずに、人間のパートナーと対話する能力を持つ。
しかし、これらの方法では、AUVはダイバーが相互作用する準備ができていると仮定する一方で、実際にはダイバーは邪魔される可能性がある。
本稿では,AUVが自律的にダイバーの注意力を決定するためのダイバーアテンション推定フレームワークを提示し,AUVがダイバーに対して対話を開始する前に自らをナビゲート・リオリエントさせるロボットコントローラを開発することにより,この問題に対処する。
フレームワークの中核となる要素は、DATT-Netと呼ばれる深層畳み込みニューラルネットワークである。
これは、ダイバーの顔のキーポイント間の幾何学的関係を利用して頭部の向きを推定し、注意力の指標として用いるピラミッド構造に基づいている。
クローズドとオープンウォーターの両ロボット実験における実環境実験と実環境実験により,提案手法の有効性が確認された。
関連論文リスト
- CoNav: A Benchmark for Human-Centered Collaborative Navigation [66.6268966718022]
協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
論文 参考訳(メタデータ) (2024-06-04T15:44:25Z) - Learning from Observer Gaze:Zero-Shot Attention Prediction Oriented by Human-Object Interaction Recognition [13.956664101032006]
まず,740種類の相互作用カテゴリの530,000個の固定点を含む,IGという新しい視線固定データセットを収集した。
次に、ゼロショットインタラクション指向の注意予測タスクZeroIAを紹介し、トレーニング中に遭遇しないインタラクションに対する視覚的手がかりを予測するモデルに挑戦する。
第3に、人間観測者の認知過程をエミュレートしてZeroIA問題に取り組むための対話型注意モデルIAを提案する。
論文 参考訳(メタデータ) (2024-05-16T09:34:57Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - FollowMe: a Robust Person Following Framework Based on Re-Identification
and Gestures [12.850149165791551]
HRI(Human-robot Interaction)は、住宅や産業において、操作の柔軟性を促進するための重要な手段となっている。
本研究では,ロボットが対象者を識別・追跡できる統合認識・ナビゲーション・フレームワークを開発した。
Re-IDモジュールは、対象者の特徴を自律的に学習し、取得した知識を使用してターゲットを視覚的に再識別する。
論文 参考訳(メタデータ) (2023-11-21T20:59:27Z) - HODN: Disentangling Human-Object Feature for HOI Detection [51.48164941412871]
本稿では,Human and Object Disentangling Network (HODN) を提案し,Human-Object Interaction (HOI) の関係を明示的にモデル化する。
インタラクションに人間的特徴がより寄与していることを考慮し,インタラクションデコーダが人間中心の領域に焦点を当てていることを確認するためのヒューマンガイドリンク手法を提案する。
提案手法は,V-COCOとHICO-Det Linkingデータセットの競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-20T04:12:50Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Robotic Detection of a Human-Comprehensible Gestural Language for
Underwater Multi-Human-Robot Collaboration [16.823029377470363]
本稿では,自律型水中車両(AUV)とヒトダイバーの非言語コミュニケーションを可能にする移動型ロボット通信フレームワークを提案する。
我々は,会話を観察するダイバーが容易に理解できるAUV-to-A通信のためのジェスチャー言語を設計する。
Asが別のAUVからのジェスチャーを視覚的に理解できるようにするために,自己認識機構を利用したディープネットワーク(RRCommNet)を提案する。
論文 参考訳(メタデータ) (2022-07-12T06:04:12Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Visual Diver Face Recognition for Underwater Human-Robot Interaction [14.96844256049975]
提案手法は,スキューバマスクや呼吸装置で顔がよく見えない水中のダイバーを識別する。
ダイバーを正しく認識する能力により、自律水中車両(AUV)は正しい人との共同作業を行うことができる。
論文 参考訳(メタデータ) (2020-11-18T21:57:09Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。