論文の概要: Economical Quaternion Extraction from a Human Skeletal Pose Estimate
using 2-D Cameras
- arxiv url: http://arxiv.org/abs/2303.08657v2
- Date: Thu, 30 Mar 2023 07:36:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 16:44:33.791710
- Title: Economical Quaternion Extraction from a Human Skeletal Pose Estimate
using 2-D Cameras
- Title(参考訳): 2次元カメラを用いた人体骨格電位からの経済的四元数抽出
- Authors: Sriram Radhakrishna, Adithya Balasubramanyam
- Abstract要約: 提案アルゴリズムは,5ミリ秒以下の遅延時間で人間の物体の画像をキャプチャする2次元フレームから四元数を抽出する。
このアルゴリズムは、資金の障壁を回避し、制御システムを設計するロボット研究者のアクセシビリティを向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a novel algorithm to extract a quaternion from a
two dimensional camera frame for estimating a contained human skeletal pose.
The problem of pose estimation is usually tackled through the usage of stereo
cameras and intertial measurement units for obtaining depth and euclidean
distance for measurement of points in 3D space. However, the usage of these
devices comes with a high signal processing latency as well as a significant
monetary cost. By making use of MediaPipe, a framework for building perception
pipelines for human pose estimation, the proposed algorithm extracts a
quaternion from a 2-D frame capturing an image of a human object at a sub-fifty
millisecond latency while also being capable of deployment at edges with a
single camera frame and a generally low computational resource availability,
especially for use cases involving last-minute detection and reaction by
autonomous robots. The algorithm seeks to bypass the funding barrier and
improve accessibility for robotics researchers involved in designing control
systems.
- Abstract(参考訳): 本稿では, 2次元カメラフレームから四元数を抽出し, 人体の骨格ポーズを推定する新しいアルゴリズムを提案する。
ポーズ推定の問題は、通常3次元空間における点測定のための深度とユークリッド距離を得るために、ステレオカメラと慣性測定ユニットの使用によって取り組まれる。
しかし、これらのデバイスの使用には、高い信号処理遅延とかなりの金銭的コストが伴う。
人間のポーズ推定のための知覚パイプラインを構築するためのフレームワークであるmediapipeを使用することで、提案アルゴリズムは、人間の物体の画像を5ミリ秒未満のレイテンシでキャプチャする2次元フレームから四元数を抽出すると同時に、単一のカメラフレームと一般的に計算資源の可用性が低いエッジに配置することができる。
このアルゴリズムは、資金の障壁を回避し、制御システムを設計するロボット研究者のアクセシビリティを向上させる。
関連論文リスト
- SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - MonoPIC -- A Monocular Low-Latency Pedestrian Intention Classification
Framework for IoT Edges Using ID3 Modelled Decision Trees [0.0]
本稿では,2次元のフレーム内の任意の歩行者の意図を論理状態に分類するアルゴリズムを提案する。
これにより、比較的レイテンシの高いディープラーニングアルゴリズムを使用する必要がなくなる。
平均テスト精度は83.56%で信頼性は0.0042で、平均レイテンシは48ミリ秒であった。
論文 参考訳(メタデータ) (2023-04-01T02:42:24Z) - Scene-Aware 3D Multi-Human Motion Capture from a Single Camera [83.06768487435818]
静止カメラで記録された1枚のRGBビデオから、シーン内の複数の人間の3次元位置を推定し、その身体形状と調音を推定する問題を考察する。
コンピュータビジョンの最近の進歩を,2次元の人体関節,関節角度,正規化不均等マップ,人間のセグメンテーションマスクなど,様々なモダリティのための大規模事前訓練モデルを用いて活用している。
特に,2次元の関節と関節角度を用いた正規化不均等予測から,シーン深度とユニークな人格尺度を推定する。
論文 参考訳(メタデータ) (2023-01-12T18:01:28Z) - P-STMO: Pre-Trained Spatial Temporal Many-to-One Model for 3D Human Pose
Estimation [78.83305967085413]
本稿では,2次元から3次元のポーズ推定作業のためのP-STMOモデルを提案する。
提案手法は,パラメータが少なく,計算オーバーヘッドが少なく,最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-03-15T04:00:59Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Real-time, low-cost multi-person 3D pose estimation [8.093696116585717]
伝統的に3次元ポーズ推定には、深度画像を生成するために複数の連結強度カメラや高解像度の飛行時間カメラのような高度な装置が必要である。
本稿では, 高精度なポーズ推定を実現し, より簡単な作業のために設計された飛行時間センサの限界を克服できることを実証する。
この作業は、それまで高度なハードウェア要件と飛行時間技術によって制限されていたシナリオにおける有望な現実的なアプリケーションを開く。
論文 参考訳(メタデータ) (2021-10-11T12:42:00Z) - Encoder-decoder with Multi-level Attention for 3D Human Shape and Pose
Estimation [61.98690211671168]
本稿では,マルチレベルアテンション・デコーダ・ネットワーク(MAED)を提案する。
3DPWのトレーニングセットにより、MAEDはPA-MPJPEの6.2、7.2、2.4mmの従来の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-09-06T09:06:17Z) - Real-Time Human Pose Estimation on a Smart Walker using Convolutional
Neural Networks [4.076099054649463]
スマートウォーカのコンテキストにおける患者モニタリングとデータ駆動型ヒューマン・イン・ザ・ループ制御に対する新しいアプローチを提案する。
完全かつコンパクトなボディ表現を、リアルタイムおよび安価なセンサーから抽出することができる。
有望な結果にもかかわらず、現実のシナリオにおけるリハビリテーションツールとしてのパフォーマンスを評価するために、障害のあるユーザにより多くのデータを収集する必要がある。
論文 参考訳(メタデータ) (2021-06-28T14:11:48Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Graph and Temporal Convolutional Networks for 3D Multi-person Pose
Estimation in Monocular Videos [33.974241749058585]
本稿では, グラフ畳み込みネットワーク(GCN)と時間畳み込みネットワーク(TCN)を統合し, カメラ中心のマルチパーソナライズされた3Dポーズを頑健に推定するフレームワークを提案する。
特に,姿勢推定結果を改善するために,2次元ポーズ推定器の信頼度スコアを用いたヒューマンジョイントgcnを提案する。
2つのGCNが連携して空間的なフレーム回りの3Dポーズを推定し、ターゲットフレーム内の可視関節情報と骨情報の両方を使用して、人の一部または欠落した情報を推定します。
論文 参考訳(メタデータ) (2020-12-22T03:01:19Z) - Three-dimensional Human Tracking of a Mobile Robot by Fusion of Tracking
Results of Two Cameras [0.860255319568951]
OpenPoseは人間の検出に使われる。
この問題に対処するための新しいステレオビジョンフレームワークが提案されている。
提案手法の有効性を目標追跡実験により検証した。
論文 参考訳(メタデータ) (2020-07-03T06:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。