論文の概要: UET-Headpose: A sensor-based top-view head pose dataset
- arxiv url: http://arxiv.org/abs/2111.07039v1
- Date: Sat, 13 Nov 2021 04:54:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 14:31:08.110527
- Title: UET-Headpose: A sensor-based top-view head pose dataset
- Title(参考訳): uet-headpose: センサベースのトップビューヘッドポーズデータセット
- Authors: Linh Nguyen Viet, Tuan Nguyen Dinh, Hoang Nguyen Viet, Duc Tran Minh,
Long Tran Quoc
- Abstract要約: 本稿では,頭部画像の収集に費用効率が高く,セットアップが容易な新しい手法を提案する。
この方法は、Depthカメラの代わりに絶対方位センサを使用して、迅速かつ安価に設定できる。
また,FSANet-Wideと呼ばれるフルレンジモデルを導入し,UET-Headposeデータセットによる頭部ポーズ推定結果を大幅に上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Head pose estimation is a challenging task that aims to solve problems
related to predicting three dimensions vector, that serves for many
applications in human-robot interaction or customer behavior. Previous
researches have proposed some precise methods for collecting head pose data.
But those methods require either expensive devices like depth cameras or
complex laboratory environment setup. In this research, we introduce a new
approach with efficient cost and easy setup to collecting head pose images,
namely UET-Headpose dataset, with top-view head pose data. This method uses an
absolute orientation sensor instead of Depth cameras to be set up quickly and
small cost but still ensure good results. Through experiments, our dataset has
been shown the difference between its distribution and available dataset like
CMU Panoptic Dataset \cite{CMU}. Besides using the UET-Headpose dataset and
other head pose datasets, we also introduce the full-range model called
FSANet-Wide, which significantly outperforms head pose estimation results by
the UET-Headpose dataset, especially on top-view images. Also, this model is
very lightweight and takes small size images.
- Abstract(参考訳): 頭部姿勢推定は、3次元ベクトルの予測に関連する問題を解決することを目的とした課題であり、人間とロボットの相互作用や顧客の行動に多くの応用に役立つ。
従来の研究では、頭部ポーズデータを収集するための正確な方法が提案されている。
しかしこれらの方法は、ディープカメラや複雑な実験室環境の設定のような高価なデバイスを必要とする。
そこで本研究では,トップビュー・ヘッドポーズデータを用いたヘッドポーズ画像の収集に効率的なコストと簡易な設定を施した新しい手法,すなわちuet-headposeデータセットを提案する。
この方法は、深度カメラの代わりに絶対方向センサーを使用し、迅速かつ安価に設定できるが、良い結果が得られている。
実験を通じて、我々のデータセットは、その分布とCMU Panoptic Dataset \cite{CMU}のような利用可能なデータセットの違いを示した。
UET-Headposeデータセットやその他のヘッドポーズデータセットの使用に加えて、特にトップビュー画像において、UET-Headposeデータセットによるヘッドポーズ推定結果を大幅に上回るFSANet-Wideと呼ばれるフルレンジモデルも導入する。
また、このモデルは非常に軽量で、小さな画像を撮ります。
関連論文リスト
- CameraHMR: Aligning People with Perspective [54.05758012879385]
モノクロ画像からの正確な3次元ポーズと形状推定の課題に対処する。
既存のトレーニングデータセットには、擬似基底真理(pGT)を持つ実画像が含まれている。
pGTの精度を向上させる2つの貢献をしている。
論文 参考訳(メタデータ) (2024-11-12T19:12:12Z) - DVMNet: Computing Relative Pose for Unseen Objects Beyond Hypotheses [59.51874686414509]
現在のアプローチは、多数の離散的なポーズ仮説を持つ連続的なポーズ表現を近似している。
本稿では,DVMNet(Deep Voxel Matching Network)を提案する。
提案手法は,最先端の手法に比べて計算コストの低い新しいオブジェクトに対して,より正確なポーズ推定を行う。
論文 参考訳(メタデータ) (2024-03-20T15:41:32Z) - FoVA-Depth: Field-of-View Agnostic Depth Estimation for Cross-Dataset
Generalization [57.98448472585241]
本研究では,広く利用可能なピンホールデータに基づいてステレオ深度推定モデルを訓練する手法を提案する。
屋内および屋外の両方のデータセットに対するアプローチの強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-01-24T20:07:59Z) - ILSH: The Imperial Light-Stage Head Dataset for Human Head View
Synthesis [42.81410101705251]
Imperial Light-Stage Headデータセットは、人間の頭に対する視覚合成の課題をサポートするために設計された、新しいデータセットである。
本稿では,高解像度(4K)人間の頭部画像の撮影に特化して設計された光ステージのセットアップについて詳述する。
データ収集に加えて、データセットのトレイン、バリデーション、テストセットへの分割にも対処します。
論文 参考訳(メタデータ) (2023-10-06T00:32:36Z) - Instant Multi-View Head Capture through Learnable Registration [62.70443641907766]
3次元頭部のデータセットを密接なセマンティック通信でキャプチャする既存の手法は遅い。
キャリブレーションされたマルチビュー画像から3Dヘッドを直接推定するためにTEMPEHを導入する。
1つの頭部の予測には0.3秒かかるが、中央値の復元誤差は0.26mmで、現在の最先端よりも64%低い。
論文 参考訳(メタデータ) (2023-06-12T21:45:18Z) - CHSEL: Producing Diverse Plausible Pose Estimates from Contact and Free
Space Data [11.005988216563528]
体積情報を持つ点集合から剛体物体の可塑性ポーズの集合を推定する新しい手法を提案する。
提案手法には3つの重要な属性がある: 1) 既知の自由空間を考慮できるボリューム情報,2) 強力な勾配に基づく最適化ツールを活用するために,新しい微分可能なボリュームコスト関数,3) 品質多様性(QD)文学からの手法を用いて,多様な高品質なポーズを生成する。
論文 参考訳(メタデータ) (2023-05-14T01:43:10Z) - A Simple Baseline for Direct 2D Multi-Person Head Pose Estimation with
Full-range Angles [24.04477340811483]
既存の頭部ポーズ推定(HPE)は主に前頭前頭部を検知した1人に焦点を当てている。
MPHPE(Multi-Person Head Pose Estimation)では,これらの単一手法は脆弱で非効率である,と我々は主張する。
本稿では,フルレンジMPHPE問題に焦点をあて,DirectMHPという,エンドツーエンドのシンプルなベースラインを提案する。
論文 参考訳(メタデータ) (2023-02-02T14:08:49Z) - Learning 3D Human Pose Estimation from Dozens of Datasets using a
Geometry-Aware Autoencoder to Bridge Between Skeleton Formats [80.12253291709673]
本稿では,アフィン結合型オートエンコーダ(ACAE)法を提案する。
このアプローチは、28人の人間のポーズデータセットを使って1つのモデルを監督する、極端なマルチデータセット体制にスケールします。
論文 参考訳(メタデータ) (2022-12-29T22:22:49Z) - Object detection and Autoencoder-based 6D pose estimation for highly
cluttered Bin Picking [14.076644545879939]
そこで本研究では,小物体の散らばったシーンにおけるポーズ推定のためのフレームワークを提案する。
本研究では,オブジェクト検出とポーズ推定のための合成データ生成手法の比較を行う。
本稿では,最も正確な推定ポーズを決定するポーズフィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-15T11:01:07Z) - WHENet: Real-time Fine-Grained Estimation for Wide Range Head Pose [1.8275108630751844]
本稿では,1枚のRGB画像から全方向のヘッドヤウからオイラー角度を推定するエンド・ツー・エンドのヘッドプレース推定ネットワークを提案する。
ネットワークは、損失関数の変更と広帯域推定に適応したトレーニング戦略を備えたマルチロスアプローチに基づいて構築されている。
論文 参考訳(メタデータ) (2020-05-20T20:53:01Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。