論文の概要: InfiniteForm: A synthetic, minimal bias dataset for fitness applications
- arxiv url: http://arxiv.org/abs/2110.01330v1
- Date: Mon, 4 Oct 2021 11:26:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 20:03:55.651628
- Title: InfiniteForm: A synthetic, minimal bias dataset for fitness applications
- Title(参考訳): InfiniteForm:フィットネスアプリケーションのための合成最小限のバイアスデータセット
- Authors: Andrew Weitz, Lina Colucci, Sidney Primas, Brinnae Bent
- Abstract要約: 我々は、多様なフィットネスポーズを持つ60k画像のオープンソース合成データセットを作成します。
合成データセットとして、InfiniteFormは体の形状と肌のトーンに最小限のバイアスを与える。
本研究では,事前定義された運動カテゴリーから多様な合成ポーズを生成するための新しい生成手順を提案する。
- 参考スコア(独自算出の注目度): 0.043012765978447554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing popularity of remote fitness has increased the demand for highly
accurate computer vision models that track human poses. However, the best
methods still fail in many real-world fitness scenarios, suggesting that there
is a domain gap between current datasets and real-world fitness data. To enable
the field to address fitness-specific vision problems, we created InfiniteForm,
an open-source synthetic dataset of 60k images with diverse fitness poses (15
categories), both single- and multi-person scenes, and realistic variation in
lighting, camera angles, and occlusions. As a synthetic dataset, InfiniteForm
offers minimal bias in body shape and skin tone, and provides pixel-perfect
labels for standard annotations like 2D keypoints, as well as those that are
difficult or impossible for humans to produce like depth and occlusion. In
addition, we introduce a novel generative procedure for creating diverse
synthetic poses from predefined exercise categories. This generative process
can be extended to any application where pose diversity is needed to train
robust computer vision models.
- Abstract(参考訳): リモートフィットネスの人気が高まり、人間のポーズを追跡する高精度なコンピュータビジョンモデルへの需要が高まっている。
しかし、最良の方法は依然として多くの現実世界のフィットネスシナリオで失敗し、現在のデータセットと現実世界のフィットネスデータの間にドメインのギャップがあることを示唆している。
さまざまなフィットネスポーズ(15のカテゴリ)を持つ60k画像のオープンソース合成データセットであるfiniteformと、シングル・パーソン・シーンとマルチパーソン・シーンの両方、照明、カメラアングル、オクルージョンのリアルなバリエーションを作成しました。
合成データセットとして、infiniteformは体形と皮膚のトーンのバイアスを最小限にし、2dキーポイントのような標準的なアノテーションや、人間が奥行きや咬合のように生成しにくい、あるいは不可能である、ピクセル完全ラベルを提供する。
さらに,運動カテゴリーから多種多様な合成ポーズを作成するための新しい生成手順を提案する。
この生成プロセスは、堅牢なコンピュータビジョンモデルをトレーニングするためにポーズの多様性が必要なアプリケーションに拡張することができる。
関連論文リスト
- Cafca: High-quality Novel View Synthesis of Expressive Faces from Casual Few-shot Captures [33.463245327698]
人間の顔に先立って,高忠実度表現型顔のモデリングが可能な新しい容積を提示する。
我々は3D Morphable Face Modelを活用して大規模なトレーニングセットを合成し、それぞれのアイデンティティを異なる表現でレンダリングする。
次に、この合成データセットに先立って条件付きニューラルレージアンスフィールドをトレーニングし、推論時に、モデルを1つの被験者の非常にスパースな実画像のセットで微調整する。
論文 参考訳(メタデータ) (2024-10-01T12:24:50Z) - HUMOS: Human Motion Model Conditioned on Body Shape [54.20419874234214]
身体形状に基づく生成運動モデルを構築するための新しいアプローチを提案する。
非ペアデータを使ってこのモデルをトレーニングすることが可能であることを示す。
得られたモデルは、多種多様で、物理的に妥当で、動的に安定した人間の動きを生成する。
論文 参考訳(メタデータ) (2024-09-05T23:50:57Z) - Generalizable Neural Performer: Learning Robust Radiance Fields for
Human Novel View Synthesis [52.720314035084215]
この研究は、一般のディープラーニングフレームワークを使用して、任意の人間の演奏者の自由視点画像を合成することを目的としている。
我々は、汎用的で堅牢な神経体表現を学習するシンプルな、かつ強力なフレームワーク、Generalizable Neural Performer(GNR)を提案する。
GeneBody-1.0とZJU-Mocapの実験は、最近の最先端の一般化可能な手法よりも、我々の手法の堅牢性を示している。
論文 参考訳(メタデータ) (2022-04-25T17:14:22Z) - Neural Rendering of Humans in Novel View and Pose from Monocular Video [68.37767099240236]
本稿では,新しい視点下で写真リアルな人間を生成し,モノクロ映像を入力として提示する新しい手法を提案する。
提案手法は,モノクラー映像を入力として,見知らぬポーズや新しい視点下での既存手法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-04T03:09:20Z) - A Review of Deep Learning Techniques for Markerless Human Motion on
Synthetic Datasets [0.0]
近年,人間の姿勢推定がコンピュータビジョンコミュニティで注目を集めている。
2次元画像のみに基づくアニメーションの骨格を予測できるモデルを提案する。
実装プロセスは、独自のデータセットにDeepLabCutを使用して、多くの必要なステップを実行する。
論文 参考訳(メタデータ) (2022-01-07T15:42:50Z) - HSPACE: Synthetic Parametric Humans Animated in Complex Environments [67.8628917474705]
我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
論文 参考訳(メタデータ) (2021-12-23T22:27:55Z) - MetaAvatar: Learning Animatable Clothed Human Models from Few Depth
Images [60.56518548286836]
新規な入力ポーズから現実的な布の変形を生成するには、通常、水密メッシュや高密度フルボディスキャンが入力として必要とされる。
本研究では, 単眼深度画像のみを考慮し, 制御可能なニューラルSDFとして表現された, リアルな衣服付きアバターを迅速に生成する手法を提案する。
論文 参考訳(メタデータ) (2021-06-22T17:30:12Z) - S3: Neural Shape, Skeleton, and Skinning Fields for 3D Human Modeling [103.65625425020129]
歩行者の形状、ポーズ、皮膚の重みを、データから直接学習する神経暗黙関数として表現します。
各種データセットに対するアプローチの有効性を実証し,既存の最先端手法よりも再現性が優れていることを示す。
論文 参考訳(メタデータ) (2021-01-17T02:16:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。