論文の概要: Pose2Drone: A Skeleton-Pose-based Framework for Human-Drone Interaction
- arxiv url: http://arxiv.org/abs/2105.13204v2
- Date: Fri, 28 May 2021 11:15:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 14:06:01.686583
- Title: Pose2Drone: A Skeleton-Pose-based Framework for Human-Drone Interaction
- Title(参考訳): Pose2Drone: 人-人間相互作用のための骨格型フレームワーク
- Authors: Zdravko Marinov, Stanka Vasileva, Qing Wang, Constantin Seibold,
Jiaming Zhang and Rainer Stiefelhagen
- Abstract要約: HDI(Human-Drone Interaction)の自然で安全な方法はジェスチャーを使うことである。
骨格に基づくポーズ推定に基づくHDIフレームワークの構築を提案する。
我々のフレームワークは、単純なアームジェスチャーでドローンの動きを制御する機能を提供する。
- 参考スコア(独自算出の注目度): 25.39523977169931
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Drones have become a common tool, which is utilized in many tasks such as
aerial photography, surveillance, and delivery. However, operating a drone
requires more and more interaction with the user. A natural and safe method for
Human-Drone Interaction (HDI) is using gestures. In this paper, we introduce an
HDI framework building upon skeleton-based pose estimation. Our framework
provides the functionality to control the movement of the drone with simple arm
gestures and to follow the user while keeping a safe distance. We also propose
a monocular distance estimation method, which is entirely based on image
features and does not require any additional depth sensors. To perform
comprehensive experiments and quantitative analysis, we create a customized
testing dataset. The experiments indicate that our HDI framework can achieve an
average of 93.5\% accuracy in the recognition of 11 common gestures. The code
is available at: https://github.com/Zrrr1997/Pose2Drone
- Abstract(参考訳): ドローンは一般的なツールとなり、航空写真、監視、配送などの多くのタスクで利用されている。
しかし、ドローンを操作するにはユーザーとの対話がますます必要になる。
HDI(Human-Drone Interaction)の自然で安全な方法はジェスチャーである。
本稿では,スケルトンに基づくポーズ推定に基づくhdiフレームワークを提案する。
我々のフレームワークは、簡単なアームジェスチャーでドローンの動きを制御し、安全な距離を維持しながらユーザーをフォローする機能を提供する。
また,画像特徴に基づく単分子距離推定法を提案し,追加の深度センサを必要としない。
包括的な実験と定量的分析を行うために、カスタムテストデータセットを作成します。
実験の結果,11の共通ジェスチャー認識において,HDIフレームワークは平均93.5\%の精度が得られることがわかった。
https://github.com/zrrr1997/pose2drone
関連論文リスト
- CARLA Drone: Monocular 3D Object Detection from a Different Perspective [33.30818773844958]
この研究は、異なるカメラ視点で3D検出フレームワークを拡張評価することを提唱している。
我々は、CDroneというCARLA Droneデータセットを導入し、ドローンビューをシミュレートし、既存のベンチマークにおけるカメラ視点の多様性を大幅に拡大する。
我々は、GroundMixと呼ばれる効果的なデータ拡張パイプラインを開発し、その識別要素は、トレーニング画像の3D一貫性向上のためのグラウンドの利用である。
論文 参考訳(メタデータ) (2024-08-21T19:25:03Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - Physics-based Motion Retargeting from Sparse Inputs [73.94570049637717]
商用AR/VR製品はヘッドセットとコントローラーのみで構成されており、ユーザーのポーズのセンサーデータは非常に限られている。
本研究では, 多様な形態のキャラクタに対して, 粗い人間のセンサデータからリアルタイムに動きをターゲットする手法を提案する。
アバターのポーズは、下半身のセンサー情報がないにもかかわらず、驚くほどよくユーザと一致していることを示す。
論文 参考訳(メタデータ) (2023-07-04T21:57:05Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Human keypoint detection for close proximity human-robot interaction [29.99153271571971]
近接ロボット相互作用の文脈における最先端人間のキーポイント検出器の性能について検討した。
MMPoseとAlphaPoseは近接して全体キーポイント検出器を動作させたが、どちらも指検出に難しかった。
本稿では,MMPose または AlphaPose の身体用と MediaPipe を,最も正確かつ堅牢な検出が可能な単一のフレームワークで組み合わせて提案する。
論文 参考訳(メタデータ) (2022-07-15T20:33:29Z) - M4Depth: A motion-based approach for monocular depth estimation on video
sequences [12.574454799055026]
本稿では,RGBストリームとドローンの動き情報を用いて,搭載カメラで見る物体の距離を推定する手法を提案する。
我々のネットワークは最先端の深度推定法より優れており、この改善の主要因は動き情報の利用である。
論文 参考訳(メタデータ) (2021-05-20T15:46:02Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z) - Perceiving Humans: from Monocular 3D Localization to Social Distancing [93.03056743850141]
本稿では,人間の3次元位置と身体の向きを1つの画像から知覚する,コスト効率の高い視覚ベースの新しい手法を提案する。
我々は,「社会的距離」という概念を,単純な位置に基づくルールとは対照的に,社会的相互作用の一形態として再考することが可能であることを示す。
論文 参考訳(メタデータ) (2020-09-01T10:12:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。