論文の概要: CrowdRec: 3D Crowd Reconstruction from Single Color Images
- arxiv url: http://arxiv.org/abs/2310.06332v1
- Date: Tue, 10 Oct 2023 06:03:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 20:35:29.898815
- Title: CrowdRec: 3D Crowd Reconstruction from Single Color Images
- Title(参考訳): crowdrec:単色画像からの3次元群集再構成
- Authors: Buzhen Huang, Jingyi Ju, Yangang Wang
- Abstract要約: 我々は,群集の特徴を活かし,群集画像に共通する1対1の手法を改善するために,群集制約付き最適化を提案する。
この最適化により、大規模な群集画像から、合理的な絶対位置の正確なボディポーズと形状を得ることができる。
- 参考スコア(独自算出の注目度): 17.662273473398592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This is a technical report for the GigaCrowd challenge. Reconstructing 3D
crowds from monocular images is a challenging problem due to mutual occlusions,
server depth ambiguity, and complex spatial distribution. Since no large-scale
3D crowd dataset can be used to train a robust model, the current multi-person
mesh recovery methods can hardly achieve satisfactory performance in crowded
scenes. In this paper, we exploit the crowd features and propose a
crowd-constrained optimization to improve the common single-person method on
crowd images. To avoid scale variations, we first detect human bounding-boxes
and 2D poses from the original images with off-the-shelf detectors. Then, we
train a single-person mesh recovery network using existing in-the-wild image
datasets. To promote a more reasonable spatial distribution, we further propose
a crowd constraint to refine the single-person network parameters. With the
optimization, we can obtain accurate body poses and shapes with reasonable
absolute positions from a large-scale crowd image using a single-person
backbone. The code will be publicly available
at~\url{https://github.com/boycehbz/CrowdRec}.
- Abstract(参考訳): これはGigaCrowdチャレンジの技術的レポートです。
モノクロ画像からの3次元群集の再構成は, 相互咬合, サーバの奥行き曖昧性, 複雑な空間分布などにより困難である。
堅牢なモデルのトレーニングには大規模な3Dクラウドデータセットが使用できないため、現在のマルチパーソンメッシュリカバリ手法では、混雑したシーンで満足できるパフォーマンスを達成できない。
本稿では,群集の特徴を生かし,群集画像の共通的な一人称手法を改善するために,群集制約付き最適化を提案する。
スケールのばらつきを避けるため、まず人間のバウンディングボックスを検知し、市販の検出器で元の画像から2dポーズをとる。
そして、既存の画像データセットを用いて、シングルパーソンメッシュリカバリネットワークをトレーニングする。
さらに,より合理的な空間分布を促進するために,単一人物ネットワークパラメータを洗練するための群集制約を提案する。
この最適化により,単一人物バックボーンを用いた大規模群集画像から,適切な絶対位置の正確な身体ポーズと形状を得ることができる。
コードは~\url{https://github.com/boycehbz/CrowdRec}で公開される。
関連論文リスト
- Crowd3D++: Robust Monocular Crowd Reconstruction with Upright Space [55.77397543011443]
本研究の目的は、カメラパラメータが不明な1枚の画像から、何百人もの人の3Dポーズ、形状、位置を再構築することである。
Crowd3Dは、複雑な3D人物位置決めを、堅牢なカメラと地上推定で2Dピクセル位置決めに変換するために提案されている。
Crowd3D++は、カメラパラメータの影響を排除し、提案した正準アップライト空間と接地認識正規化変換による収穫操作を行う。
論文 参考訳(メタデータ) (2024-11-09T16:49:59Z) - Crowd3D: Towards Hundreds of People Reconstruction from a Single Image [57.58149031283827]
我々は,1つの大画面画像から数百人のグローバルな一貫性を持つ人々の3Dポーズ,形状,位置を再構築する最初のフレームワークであるCrowd3Dを提案する。
多数の人やさまざまな人体サイズに対応するため,適応型人間中心収穫方式を設計する。
論文 参考訳(メタデータ) (2023-01-23T11:45:27Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - KeypointNeRF: Generalizing Image-based Volumetric Avatars using Relative
Spatial Encoding of Keypoints [28.234772596912165]
スパースビューから高忠実度体積アバターをモデル化するための高効率なアプローチを提案する。
鍵となるアイデアの1つは、スパース3Dキーポイントを介して相対空間の3D情報を符号化することである。
実験の結果,先行作業における誤りの大部分は,空間符号化の不適切な選択に起因することがわかった。
論文 参考訳(メタデータ) (2022-05-10T15:57:03Z) - NeuralReshaper: Single-image Human-body Retouching with Deep Neural
Networks [50.40798258968408]
本稿では,深部生成ネットワークを用いた単一画像における人体の意味的再構成手法であるNeuralReshaperを提案する。
われわれのアプローチは、まずパラメトリックな3次元人間モデルと元の人間の画像とを適合させるフィッティング・セイン・リフォーム・パイプラインに従う。
ペアデータが存在しないデータ不足に対処するために,ネットワークをトレーニングするための新たな自己教師型戦略を導入する。
論文 参考訳(メタデータ) (2022-03-20T09:02:13Z) - Monocular, One-stage, Regression of Multiple 3D People [105.3143785498094]
我々は、複数の3D人物(ROMP)のための1段階方式で全てのメッシュを回帰することを提案する。
本手法は,体温マップとメッシュマップを同時に予測し,画素レベルの3Dボディメッシュを共同で記述する。
最先端の手法と比較して、ROMPは挑戦的なマルチパーソンベンチマークよりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-08-27T17:21:47Z) - Coherent Reconstruction of Multiple Humans from a Single Image [68.3319089392548]
本研究では,1枚の画像から多人数の3Dポーズ推定を行う問題に対処する。
この問題のトップダウン設定における典型的な回帰アプローチは、まずすべての人間を検出し、それぞれを独立して再構築する。
我々のゴールは、これらの問題を回避し、現場のすべての人間のコヒーレントな3D再構成を生成するために学習する単一のネットワークをトレーニングすることである。
論文 参考訳(メタデータ) (2020-06-15T17:51:45Z) - Compressed Volumetric Heatmaps for Multi-Person 3D Pose Estimation [33.71628590745982]
単眼RGB画像からボトムアップな3次元人物ポーズ推定手法を提案する。
本稿では,この表現のサイズを大幅に削減する,シンプルで効率的な圧縮手法を提案する。
提案手法は,多人・一対一の3次元ポーズ推定データセットを用いた場合と比較して,好適に機能する。
論文 参考訳(メタデータ) (2020-04-01T10:37:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。