論文の概要: An Improved Baseline Framework for Pose Estimation Challenge at ECCV
2022 Visual Perception for Navigation in Human Environments Workshop
- arxiv url: http://arxiv.org/abs/2303.07141v1
- Date: Mon, 13 Mar 2023 14:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 14:42:52.146578
- Title: An Improved Baseline Framework for Pose Estimation Challenge at ECCV
2022 Visual Perception for Navigation in Human Environments Workshop
- Title(参考訳): ECCV 2022における視点推定のためのベースラインフレームワークの改良 : ヒューマン環境ワークショップにおけるナビゲーションの視覚的知覚
- Authors: Jiajun Fu, Yonghao Dang, Ruoqi Yin, Shaojie Zhang, Feng Zhou, Wending
Zhao, Jianqin Yin
- Abstract要約: 本課題は、縫合したパノラマ画像から人間のポーズを推定することである。
提案手法は,人間検出のための高速R-CNNと人間のポーズ推定のためのHRNetに基づいて構築される。
コンペではJRDB-Poseのテストセットで0.303 $textOSPA_textIOU$と64.047% $textAP_text0.5$を達成しました。
- 参考スコア(独自算出の注目度): 7.340340007679533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This technical report describes our first-place solution to the pose
estimation challenge at ECCV 2022 Visual Perception for Navigation in Human
Environments Workshop. In this challenge, we aim to estimate human poses from
in-the-wild stitched panoramic images. Our method is built based on Faster
R-CNN for human detection, and HRNet for human pose estimation. We describe
technical details for the JRDB-Pose dataset, together with some experimental
results. In the competition, we achieved 0.303 $\text{OSPA}_{\text{IOU}}$ and
64.047\% $\text{AP}_{\text{0.5}}$ on the test set of JRDB-Pose.
- Abstract(参考訳): 本技術報告では,ECCV 2022 Visual Perception for Navigation in Human Environments Workshopにおけるポーズ推定問題に対する最初のソリューションについて述べる。
本課題は、縫合したパノラマ画像から人間のポーズを推定することである。
提案手法は人間検出のための高速R-CNNと人間のポーズ推定のためのHRNetに基づいて構築される。
JRDB-Poseデータセットの技術的詳細と実験結果について述べる。
コンペではJRDB-Poseのテストセットで0.303 $\text{OSPA}_{\text{IOU}}$と64.047\% $\text{AP}_{\text{0.5}}$を達成しました。
関連論文リスト
- Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - SHaRPose: Sparse High-Resolution Representation for Human Pose
Estimation [39.936860590417346]
Sparse High- resolution Representations のみを人間の姿勢推定に用いるフレームワーク(SHaRPose)を提案する。
我々のモデルであるSHaRPose-Baseは、検証セット上で77.4 AP(+0.5 AP)、COCOテストデブセット上で76.7 AP(+0.5 AP)を達成し、ViTPose-Baseより1.4Times$速い速度で推論する。
論文 参考訳(メタデータ) (2023-12-17T16:29:16Z) - HAP: Structure-Aware Masked Image Modeling for Human-Centric Perception [97.55089867970874]
本稿では,この課題に対する事前学習手法として,マスク付き画像モデリング(MIM)を導入する。
この知見に触発され、人間の前部である直感的な人体構造を事前学習に組み込む。
これにより、モデルが事前トレーニング中に身体構造情報に集中し、さまざまな人間中心の知覚タスクに実質的な利益をもたらす。
論文 参考訳(メタデータ) (2023-10-31T17:56:11Z) - 1st Place Solution of Egocentric 3D Hand Pose Estimation Challenge 2023
Technical Report:A Concise Pipeline for Egocentric Hand Pose Reconstruction [11.551318550321938]
AssemblyHandsを使って、この課題は、単視点画像からエゴセントリックな3D手ポーズの推定に焦点を当てる。
ViTベースのバックボーンと、強力なモデルベースラインを提供する3Dキーポイント予測のためのシンプルな回帰器を採用しています。
提案手法は,テストデータセット上で12.21mmMPJPEを達成し,Egocentric 3D Hand Pose Estimation において第1位を獲得した。
論文 参考訳(メタデータ) (2023-10-07T10:25:50Z) - FB-OCC: 3D Occupancy Prediction based on Forward-Backward View
Transformation [79.41536932037822]
FB-BEVは前方投影を用いた近縁カメラを用いた鳥眼視知覚設計である。
設計と最適化の結果、最先端のmIoUスコアはnuScenesデータセットで54.19%となり、チャレンジトラックで1位となった。
論文 参考訳(メタデータ) (2023-07-04T05:55:54Z) - Human Pose Estimation in Monocular Omnidirectional Top-View Images [3.07869141026886]
全方位画像におけるキーポイント検出タスクのためのCNNのトレーニングと評価のための新しいデータセットを提案する。
トレーニングデータセットであるTheODORE+は50,000の画像で構成され、3Dレンダリングエンジンによって作成される。
評価のために、2つのシナリオと701フレーム、1シーンあたり最大8人までの実際のPoseFESデータセットをキャプチャして注釈付けした。
論文 参考訳(メタデータ) (2023-04-17T11:52:04Z) - HumanBench: Towards General Human-centric Perception with Projector
Assisted Pretraining [75.1086193340286]
汎用的な人中心下流作業のための一般的な事前訓練モデルを持つことが望ましい。
本研究では,既存のデータセットをベースとしたtextbfHumanBench を提案する。
我々のPATHは、17の下流データセットと他の2つのデータセットの中間結果に対して、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2023-03-10T02:57:07Z) - Zero-Shot Category-Level Object Pose Estimation [24.822189326540105]
ゼロショット方式で新しい対象カテゴリーのポーズを推定する問題に取り組む。
これは、ポーズラベル付きデータセットやカテゴリ固有のCADモデルの必要性を取り除くことで、既存の文献の多くを拡張します。
本手法は平均回転精度を30度で6倍改善する。
論文 参考訳(メタデータ) (2022-04-07T17:58:39Z) - Deep Learning-Based Human Pose Estimation: A Survey [66.01917727294163]
人間のポーズ推定は、過去10年間に注目を集めてきた。
ヒューマン・コンピュータ・インタラクション、モーション・アナリティクス、拡張現実、バーチャル・リアリティーなど幅広い用途で利用されている。
最近のディープラーニングベースのソリューションは、人間のポーズ推定において高いパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-12-24T18:49:06Z) - Towards Accurate Human Pose Estimation in Videos of Crowded Scenes [134.60638597115872]
我々は、時間的文脈を利用して新しいデータを収集する視点から、混雑したシーンのビデオにおける人間のポーズ推定を改善することに注力する。
あるフレームについては、過去のフレームから過去のポーズを転送し、その後のフレームから現在のフレームへ未来的なポーズを後退させ、ビデオにおける安定した人間のポーズ推定に繋がる。
このようにして、HIEチャレンジのテストデータセット上で、13本中7本、56.33本の平均w_APで最高の性能を達成する。
論文 参考訳(メタデータ) (2020-10-16T13:19:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。