論文の概要: Visual Detection of Diver Attentiveness for Underwater Human-Robot
Interaction
- arxiv url: http://arxiv.org/abs/2209.14447v1
- Date: Wed, 28 Sep 2022 22:08:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 17:57:17.279202
- Title: Visual Detection of Diver Attentiveness for Underwater Human-Robot
Interaction
- Title(参考訳): 水中ロボットインタラクションにおけるダイバーアテンタビリティの視覚的検出
- Authors: Sadman Sakib Enan and Junaed Sattar
- Abstract要約: 自律型水中車両(AUV)におけるダイバーアテンション推定手法を提案する。
このフレームワークのコア要素はディープニューラルネットワーク(DATT-Netと呼ばれる)で、ダイバーの10の顔キーポイント間の幾何学的関係を利用して、その方向を決定する。
実験により,提案したDATT-Netアーキテクチャは,有望な精度でヒトダイバーの注意力を決定することができることを示した。
- 参考スコア(独自算出の注目度): 15.64806176508126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many underwater tasks, such as cable-and-wreckage inspection,
search-and-rescue, benefit from robust human-robot interaction (HRI)
capabilities. With the recent advancements in vision-based underwater HRI
methods, autonomous underwater vehicles (AUVs) can communicate with their human
partners even during a mission. However, these interactions usually require
active participation especially from humans (e.g., one must keep looking at the
robot during an interaction). Therefore, an AUV must know when to start
interacting with a human partner, i.e., if the human is paying attention to the
AUV or not. In this paper, we present a diver attention estimation framework
for AUVs to autonomously detect the attentiveness of a diver and then navigate
and reorient itself, if required, with respect to the diver to initiate an
interaction. The core element of the framework is a deep neural network (called
DATT-Net) which exploits the geometric relation among 10 facial keypoints of
the divers to determine their head orientation. Our on-the-bench experimental
evaluations (using unseen data) demonstrate that the proposed DATT-Net
architecture can determine the attentiveness of human divers with promising
accuracy. Our real-world experiments also confirm the efficacy of DATT-Net
which enables real-time inference and allows the AUV to position itself for an
AUV-diver interaction.
- Abstract(参考訳): ケーブル・アンド・レッカージ・インスペクション、捜索・救助など多くの水中作業は、堅牢なヒューマン・ロボット・インタラクション(HRI)能力の恩恵を受ける。
近年の視覚に基づく水中HRI手法の進歩により、自律型水中車両(AUV)はミッション中にも人間のパートナーと通信することができる。
しかし、これらの相互作用は通常、特に人間からの積極的な参加を必要とする(例えば、相互作用中にロボットを見続ける必要がある)。
したがって、AUVはいつ人間のパートナーと対話し始めるか、すなわち人間がAUVに注意を払っているかを知る必要がある。
本稿では,AUVがダイバーの注意力を自律的に検出し,必要なら,ダイバーが対話を開始するために自分自身をナビゲートし,順応させるためのダイバーアテンション推定フレームワークを提案する。
フレームワークの中核となる要素は深層ニューラルネットワーク(datt-netと呼ばれる)で、ダイバーの10のキーポイント間の幾何学的関係を利用して頭部の向きを決定する。
その結果,提案したDATT-Netアーキテクチャは,有望な精度でダイバーの注意力を決定することができることがわかった。
我々の実世界の実験は、リアルタイム推論を可能にするDATT-Netの有効性も確認し、AUVがAUV-バイバー相互作用のために自身を配置できるようにする。
関連論文リスト
- CoNav: A Benchmark for Human-Centered Collaborative Navigation [66.6268966718022]
協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
論文 参考訳(メタデータ) (2024-06-04T15:44:25Z) - Learning from Observer Gaze:Zero-Shot Attention Prediction Oriented by Human-Object Interaction Recognition [13.956664101032006]
まず,740種類の相互作用カテゴリの530,000個の固定点を含む,IGという新しい視線固定データセットを収集した。
次に、ゼロショットインタラクション指向の注意予測タスクZeroIAを紹介し、トレーニング中に遭遇しないインタラクションに対する視覚的手がかりを予測するモデルに挑戦する。
第3に、人間観測者の認知過程をエミュレートしてZeroIA問題に取り組むための対話型注意モデルIAを提案する。
論文 参考訳(メタデータ) (2024-05-16T09:34:57Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - FollowMe: a Robust Person Following Framework Based on Re-Identification
and Gestures [12.850149165791551]
HRI(Human-robot Interaction)は、住宅や産業において、操作の柔軟性を促進するための重要な手段となっている。
本研究では,ロボットが対象者を識別・追跡できる統合認識・ナビゲーション・フレームワークを開発した。
Re-IDモジュールは、対象者の特徴を自律的に学習し、取得した知識を使用してターゲットを視覚的に再識別する。
論文 参考訳(メタデータ) (2023-11-21T20:59:27Z) - HODN: Disentangling Human-Object Feature for HOI Detection [51.48164941412871]
本稿では,Human and Object Disentangling Network (HODN) を提案し,Human-Object Interaction (HOI) の関係を明示的にモデル化する。
インタラクションに人間的特徴がより寄与していることを考慮し,インタラクションデコーダが人間中心の領域に焦点を当てていることを確認するためのヒューマンガイドリンク手法を提案する。
提案手法は,V-COCOとHICO-Det Linkingデータセットの競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-20T04:12:50Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Robotic Detection of a Human-Comprehensible Gestural Language for
Underwater Multi-Human-Robot Collaboration [16.823029377470363]
本稿では,自律型水中車両(AUV)とヒトダイバーの非言語コミュニケーションを可能にする移動型ロボット通信フレームワークを提案する。
我々は,会話を観察するダイバーが容易に理解できるAUV-to-A通信のためのジェスチャー言語を設計する。
Asが別のAUVからのジェスチャーを視覚的に理解できるようにするために,自己認識機構を利用したディープネットワーク(RRCommNet)を提案する。
論文 参考訳(メタデータ) (2022-07-12T06:04:12Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Visual Diver Face Recognition for Underwater Human-Robot Interaction [14.96844256049975]
提案手法は,スキューバマスクや呼吸装置で顔がよく見えない水中のダイバーを識別する。
ダイバーを正しく認識する能力により、自律水中車両(AUV)は正しい人との共同作業を行うことができる。
論文 参考訳(メタデータ) (2020-11-18T21:57:09Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。