論文の概要: Surpassing Real-World Source Training Data: Random 3D Characters for
Generalizable Person Re-Identification
- arxiv url: http://arxiv.org/abs/2006.12774v2
- Date: Fri, 14 Aug 2020 14:22:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 23:09:04.756616
- Title: Surpassing Real-World Source Training Data: Random 3D Characters for
Generalizable Person Re-Identification
- Title(参考訳): 実世界のソーストレーニングデータを超える: 一般化された人物再同定のためのランダム3d文字
- Authors: Yanan Wang, Shengcai Liao, Ling Shao
- Abstract要約: 本研究では,大規模人物再識別データセットを,実際の監視に類似したセットアップに従って自動生成することを提案する。
私たちはUnity3Dを使って様々な仮想環境をシミュレートし、実際の監視システムに似たカメラネットワークをカスタマイズした。
その結果、8000のアイデンティティを持つ1,801,816人の人物画像を持つRandPersonという仮想データセットが得られた。
- 参考スコア(独自算出の注目度): 109.68210001788506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person re-identification has seen significant advancement in recent years.
However, the ability of learned models to generalize to unknown target domains
still remains limited. One possible reason for this is the lack of large-scale
and diverse source training data, since manually labeling such a dataset is
very expensive and privacy sensitive. To address this, we propose to
automatically synthesize a large-scale person re-identification dataset
following a set-up similar to real surveillance but with virtual environments,
and then use the synthesized person images to train a generalizable person
re-identification model. Specifically, we design a method to generate a large
number of random UV texture maps and use them to create different 3D clothing
models. Then, an automatic code is developed to randomly generate various
different 3D characters with diverse clothes, races and attributes. Next, we
simulate a number of different virtual environments using Unity3D, with
customized camera networks similar to real surveillance systems, and import
multiple 3D characters at the same time, with various movements and
interactions along different paths through the camera networks. As a result, we
obtain a virtual dataset, called RandPerson, with 1,801,816 person images of
8,000 identities. By training person re-identification models on these
synthesized person images, we demonstrate, for the first time, that models
trained on virtual data can generalize well to unseen target images, surpassing
the models trained on various real-world datasets, including CUHK03,
Market-1501, DukeMTMC-reID, and almost MSMT17. The RandPerson dataset is
available at https://github.com/VideoObjectSearch/RandPerson.
- Abstract(参考訳): 人身元確認は近年大きく進歩している。
しかし、学習モデルが未知の対象領域に一般化する能力はまだ限られている。
このようなデータセットの手動ラベリングは非常に高価で、プライバシに敏感であるため、この理由の1つは、大規模で多様なソーストレーニングデータがないことだ。
そこで本研究では,実際の監視と同じような仮想環境で設定した大規模人物再識別データセットを自動で合成し,合成した人物画像を用いて一般化可能な人物再識別モデルを訓練する。
具体的には、多数のランダムなuvテクスチャマップを生成し、それらを用いて異なる3d衣料モデルを作成する方法を設計する。
そして、様々な衣服、人種、属性の異なる様々な3d文字をランダムに生成する自動コードを開発した。
次に、実際の監視システムと同様のカスタマイズされたカメラネットワークを備えたUnity3Dを用いて、多数の仮想環境をシミュレートし、同時に複数の3D文字をインポートし、カメラネットワークを介して異なる経路に沿って様々な動きやインタラクションを行う。
その結果,1,801,816人の身元が8,000の仮想データセットrandpersonが得られた。
これらの合成された人物画像の人体再識別モデルをトレーニングすることにより、仮想データでトレーニングされたモデルが、CUHK03、Market-1501、DukeMTMC-reID、MSMT17など、さまざまな実世界のデータセットでトレーニングされたモデルを上回る、見知らぬ対象画像にうまく一般化できることを初めて示す。
RandPersonのデータセットはhttps://github.com/VideoObjectSearch/RandPersonで公開されている。
関連論文リスト
- 3D Human Reconstruction in the Wild with Synthetic Data Using Generative Models [52.96248836582542]
本稿では,人間の画像とそれに対応する3Dメッシュアノテーションをシームレスに生成できるHumanWildという,最近の拡散モデルに基づく効果的なアプローチを提案する。
生成モデルを排他的に活用することにより,大規模な人体画像と高品質なアノテーションを生成し,実世界のデータ収集の必要性を解消する。
論文 参考訳(メタデータ) (2024-03-17T06:31:16Z) - Multi-person 3D pose estimation from unlabelled data [2.54990557236581]
シナリオ内の人々の横断的な対応を予測できるグラフニューラルネットワークに基づくモデルを提案する。
また、各人物の3Dポーズを生成するために2Dポイントを利用する多層パーセプトロンも提示する。
論文 参考訳(メタデータ) (2022-12-16T22:03:37Z) - Neural Novel Actor: Learning a Generalized Animatable Neural
Representation for Human Actors [98.24047528960406]
本稿では,複数の人物の多視点画像のスパース集合から,汎用的アニマタブルなニューラル表現を学習するための新しい手法を提案する。
学習された表現は、カメラのスパースセットから任意の人の新しいビューイメージを合成し、さらにユーザのポーズ制御でアニメーション化することができる。
論文 参考訳(メタデータ) (2022-08-25T07:36:46Z) - BEHAVE: Dataset and Method for Tracking Human Object Interactions [105.77368488612704]
マルチビューのRGBDフレームとそれに対応する3D SMPLとオブジェクトをアノテートしたアノテートコンタクトに適合させる。
このデータを用いて、自然環境における人間と物体を、容易に使用可能なマルチカメラで共同で追跡できるモデルを学ぶ。
論文 参考訳(メタデータ) (2022-04-14T13:21:19Z) - Cloning Outfits from Real-World Images to 3D Characters for
Generalizable Person Re-Identification [32.85048692231159]
本研究は,現実世界の人物画像から仮想3Dキャラクタへの衣服全体のクローン化を自動で行う手法を提案する。
Unity3Dシーンでクローンされた文字をレンダリングすることで、ClonedPersonと呼ばれるより現実的な仮想データセットが作成される。
実験結果から、ClonedPersonでトレーニングされたモデルは、他の人気のある実世界および合成人物再識別データセットでトレーニングされたモデルよりも、より優れた一般化性能を有することが示された。
論文 参考訳(メタデータ) (2022-04-06T06:41:08Z) - VoxelTrack: Multi-Person 3D Human Pose Estimation and Tracking in the
Wild [98.69191256693703]
本稿では,VoxelTrackを用いて,多人数の3次元ポーズ推定と,広義のベースラインで分離された少数のカメラからの追跡を行う。
マルチブランチネットワークを使用して、環境中のすべての人に3Dポーズと再識別機能(Re-ID)を共同で推定する。
これは、Shelf、Campus、CMU Panopticの3つの公開データセットに対して、最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-08-05T08:35:44Z) - S3: Neural Shape, Skeleton, and Skinning Fields for 3D Human Modeling [103.65625425020129]
歩行者の形状、ポーズ、皮膚の重みを、データから直接学習する神経暗黙関数として表現します。
各種データセットに対するアプローチの有効性を実証し,既存の最先端手法よりも再現性が優れていることを示す。
論文 参考訳(メタデータ) (2021-01-17T02:16:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。