論文の概要: Pose Estimation for Human Wearing Loose-Fitting Clothes: Obtaining
Ground Truth Posture Using HFR Camera and Blinking LEDs
- arxiv url: http://arxiv.org/abs/2212.04820v1
- Date: Thu, 8 Dec 2022 18:10:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 15:20:12.668859
- Title: Pose Estimation for Human Wearing Loose-Fitting Clothes: Obtaining
Ground Truth Posture Using HFR Camera and Blinking LEDs
- Title(参考訳): ゆるい服を着た人間のポーズ推定:hfrカメラと点滅ledを用いた地中真理姿勢の取得
- Authors: Takayoshi Yamaguchi, Dan Mikami, Seiji Matsumura, Naoki Saijo, Makio
Kashino
- Abstract要約: 本研究では, ゆるやかな服装を身に着けた人間の2次元ポーズ(2次元)の基底真理データを得る手法を開発した。
LEDオンビデオは関節を手動でアノテートするために使われ、それによって地上の真実データを得る。
実験により,提案手法が標準RGBビデオの真理データを得ることができることを示した。
- 参考スコア(独自算出の注目度): 3.6511147925884946
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human pose estimation, particularly in athletes, can help improve their
performance. However, this estimation is difficult using existing methods, such
as human annotation, if the subjects wear loose-fitting clothes such as
ski/snowboard wears. This study developed a method for obtaining the ground
truth data on two-dimensional (2D) poses of a human wearing loose-fitting
clothes. This method uses fast-flushing light-emitting diodes (LEDs). The
subjects were required to wear loose-fitting clothes and place the LED on the
target joints. The LEDs were observed directly using a camera by selecting thin
filmy loose-fitting clothes. The proposed method captures the scene at 240 fps
by using a high-frame-rate camera and renders two 30 fps image sequences by
extracting LED-on and -off frames. The temporal differences between the two
video sequences can be ignored, considering the speed of human motion. The
LED-on video was used to manually annotate the joints and thus obtain the
ground truth data. Additionally, the LED-off video, equivalent to a standard
video at 30 fps, confirmed the accuracy of existing machine learning-based
methods and manual annotations. Experiments demonstrated that the proposed
method can obtain ground truth data for standard RGB videos. Further, it was
revealed that neither manual annotation nor the state-of-the-art pose estimator
obtains the correct position of target joints.
- Abstract(参考訳): 人間のポーズ推定、特にアスリートは、パフォーマンスを向上させるのに役立つ。
しかし,スキーやスノウボードなどの着物に着る場合,人間のアノテーションなどの既存の手法では,この推定は困難である。
本研究では,ゆるい服装を身に着けた人間の2次元(2次元)ポーズの基底真理データを得る手法を開発した。
高速拡散発光ダイオード(LED)を用いる。
被験者は、ゆるやかな服装を着用し、LEDを目標関節に装着することが求められた。
LEDはカメラで直接観察され、薄さのゆるい服を選択しました。
提案手法は,高フレームレートカメラを用いて240fpsでシーンをキャプチャし,LEDオンフレームとオフフレームを抽出して2つの30fps画像シーケンスをレンダリングする。
2つのビデオシーケンス間の時間的差異は、人間の動きの速度を考慮して無視することができる。
LEDオンビデオは関節を手動でアノテートし、それによって地上の真実データを得る。
さらに、30fpsの標準ビデオに相当するledオフビデオは、既存の機械学習ベースの方法と手動アノテーションの精度を確認した。
実験により,提案手法が標準RGBビデオの真理データを得ることができることを示した。
さらに,手動アノテーションも最先端ポーズ推定器も対象関節の位置を正しく把握できないことが明らかとなった。
関連論文リスト
- Real-time 3D-aware Portrait Video Relighting [89.41078798641732]
ニューラル・ラジアンス・フィールド(NeRF)を応用した3次元映像の映像再生のための3D認識方式を提案する。
我々は、高速なデュアルエンコーダを備えたビデオフレーム毎に所望の照明条件に基づいて、アルベド三面体とシェーディング三面体を推定する。
本手法は, 消費者レベルのハードウェア上で32.98fpsで動作し, 再現性, 照明誤差, 照明不安定性, 時間的整合性, 推論速度の両面から最新の結果が得られる。
論文 参考訳(メタデータ) (2024-10-24T01:34:11Z) - HumanVid: Demystifying Training Data for Camera-controllable Human Image Animation [64.37874983401221]
人間の画像アニメーションに適した,最初の大規模高品質データセットであるHumanVidを紹介する。
実世界のデータについては、インターネットから大量の実世界のビデオをコンパイルします。
合成データとして,10K3Dアバターを収集し,体形,肌のテクスチャ,衣服などの既存の資産を利用した。
論文 参考訳(メタデータ) (2024-07-24T17:15:58Z) - Learning Exposure Correction in Dynamic Scenes [24.302307771649232]
我々は、露光不足と露光過多の両方を含む、世界初の実世界のペアビデオデータセットを構築した。
両ストリームモジュールは、露光不足と露光過多の両方に対処するように設計されている。
論文 参考訳(メタデータ) (2024-02-27T08:19:51Z) - 3D Pose Estimation of Two Interacting Hands from a Monocular Event
Camera [59.846927201816776]
本稿では,1つの単眼イベントカメラから手の動きの速い2つの手の動きを3次元追跡するための最初のフレームワークを紹介する。
本手法は, 半教師付き機能的注意機構により, 左手のあいまいさに対処し, 交差点の損失を補足して手衝突を解消する。
論文 参考訳(メタデータ) (2023-12-21T18:59:57Z) - Decoupling Human and Camera Motion from Videos in the Wild [67.39432972193929]
本研究では,野生の映像から地球規模の人間の軌道を再構築する手法を提案する。
カメラと人間の動きを分離することで、人間を同じ世界座標系に配置することができる。
論文 参考訳(メタデータ) (2023-02-24T18:59:15Z) - SmartMocap: Joint Estimation of Human and Camera Motion using
Uncalibrated RGB Cameras [49.110201064166915]
複数のRGBカメラからのマーカーレス人間のモーションキャプチャ(モキャップ)は、広く研究されている問題である。
既存の方法は、モキャップシステムの基準フレームとして機能するスタティックカメラに対して、キャリブレーションされたカメラを必要とするか、あるいはそれらをキャリブレーションする必要がある。
複数の静止・移動可能なRGBカメラを用いたモキャップ方式を提案する。
論文 参考訳(メタデータ) (2022-09-28T08:21:04Z) - Copy Motion From One to Another: Fake Motion Video Generation [53.676020148034034]
人工知能の魅力的な応用は、任意の所望の動作を行う対象者のビデオを生成することである。
現在の手法では、通常、生成されたビデオの信頼性を評価するために、L2損失のGANを用いる。
本稿では,ポーズから前景画像へのマッピングの学習を容易にする理論的動機付け型Gromov-Wasserstein損失を提案する。
本手法は,人物の複雑な動きを忠実にコピーすることで,現実的な人物映像を生成できる。
論文 参考訳(メタデータ) (2022-05-03T08:45:22Z) - SMPLy Benchmarking 3D Human Pose Estimation in the Wild [14.323219585166573]
Mannequin Challengeのデータセットには、彫像のようなアクションで凍った人々の野生の映像が含まれている。
登録されたボディモデルを持つ合計24,428フレームは、ほぼ無償で567シーンから選択される。
我々は,このデータセット上で,最先端のSMPLに基づく人間のポーズ推定手法をベンチマークする。
論文 参考訳(メタデータ) (2020-12-04T17:48:32Z) - Synergetic Reconstruction from 2D Pose and 3D Motion for Wide-Space
Multi-Person Video Motion Capture in the Wild [3.0015034534260665]
マルチカメラの精度と滑らかさを考慮したマーカーレスモーションキャプチャ手法を提案する。
提案手法は,各人物の3Dポーズを予測し,マルチカメラ画像のバウンディングボックスを決定する。
提案手法を,様々なデータセットと実スポーツフィールドを用いて評価した。
論文 参考訳(メタデータ) (2020-01-16T02:14:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。