論文の概要: Human-Art: A Versatile Human-Centric Dataset Bridging Natural and
Artificial Scenes
- arxiv url: http://arxiv.org/abs/2303.02760v2
- Date: Wed, 5 Apr 2023 07:36:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 15:20:06.941750
- Title: Human-Art: A Versatile Human-Centric Dataset Bridging Natural and
Artificial Scenes
- Title(参考訳): Human-Art: 自然と人工のシーンを包括する人間中心データセット
- Authors: Xuan Ju, Ailing Zeng, Jianan Wang, Qiang Xu, Lei Zhang
- Abstract要約: 自然と人工のシナリオで関連するタスクをブリッジするために、Human-Artデータセットを導入します。
Human-Artには、5つの自然シナリオと15の人工シナリオから123k人以上のインスタンスを持つ、50kの高品質なイメージが含まれている。
また,人間の検出,2次元と3次元のポーズ推定,画像生成,移動移動など,関連する課題の詳細な分析とベースライン結果の豊富なセットも提供する。
- 参考スコア(独自算出の注目度): 15.48297730981114
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Humans have long been recorded in a variety of forms since antiquity. For
example, sculptures and paintings were the primary media for depicting human
beings before the invention of cameras. However, most current human-centric
computer vision tasks like human pose estimation and human image generation
focus exclusively on natural images in the real world. Artificial humans, such
as those in sculptures, paintings, and cartoons, are commonly neglected, making
existing models fail in these scenarios. As an abstraction of life, art
incorporates humans in both natural and artificial scenes. We take advantage of
it and introduce the Human-Art dataset to bridge related tasks in natural and
artificial scenarios. Specifically, Human-Art contains 50k high-quality images
with over 123k person instances from 5 natural and 15 artificial scenarios,
which are annotated with bounding boxes, keypoints, self-contact points, and
text information for humans represented in both 2D and 3D. It is, therefore,
comprehensive and versatile for various downstream tasks. We also provide a
rich set of baseline results and detailed analyses for related tasks, including
human detection, 2D and 3D human pose estimation, image generation, and motion
transfer. As a challenging dataset, we hope Human-Art can provide insights for
relevant research and open up new research questions.
- Abstract(参考訳): 人間は古くから様々な形で記録されてきた。
例えば、彫刻や絵画は、カメラの発明以前に人間を描いた主要なメディアであった。
しかしながら、人間のポーズ推定や人間の画像生成のような現在の人間中心のコンピュータビジョンタスクは、現実世界の自然画像のみに焦点を当てている。
彫刻、絵画、漫画などの人工人間は一般的に無視され、既存のモデルはこれらのシナリオで失敗する。
人生の抽象として、芸術は人間を自然と人工の両方の場面に取り入れている。
我々はその利点を生かし、自然と人工のシナリオで関連するタスクをブリッジするためにHuman-Artデータセットを導入します。
具体的には、Human-Artには、5つの自然シナリオと15の人工シナリオから123k以上の人体インスタンスを持つ50万以上の高品質の画像が含まれている。
したがって、様々な下流タスクには包括的で汎用性がある。
また,人間の検出,2次元と3次元のポーズ推定,画像生成,移動移動など,関連する課題の詳細な分析とベースライン結果の豊富なセットも提供する。
挑戦的なデータセットとして、Human-Artが関連する研究の洞察を提供し、新たな研究質問を開くことを願っています。
関連論文リスト
- Evaluating Multiview Object Consistency in Humans and Image Models [68.36073530804296]
我々は、物体の形状に関するゼロショット視覚的推論を必要とする認知科学の実験的設計を活用する。
我々は500人以上の参加者から行動データの35万件の試行を収集した。
次に、一般的な視覚モデルの性能を評価する。
論文 参考訳(メタデータ) (2024-09-09T17:59:13Z) - A Unified Framework for Human-centric Point Cloud Video Understanding [23.91555808792291]
人間中心のポイントクラウドビデオ理解(PVU)は、人間のポイントクラウドのシーケンスから人間に関連する特徴を抽出し、解釈することに焦点を当てた新興分野である。
本稿では,従来の知識を十分に活用する統一的なフレームワークを提案し,汎用的人間中心のクラウドビデオ理解のためのデータ自体の本質的特徴を探求する。
本手法は,動作認識や3次元ポーズ推定など,多種多様なヒューマンタスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-29T07:53:06Z) - UniHuman: A Unified Model for Editing Human Images in the Wild [49.896715833075106]
実環境における画像編集の複数の側面に対処する統一モデルUniHumanを提案する。
モデルの生成品質と一般化能力を向上させるために,人間の視覚エンコーダからのガイダンスを利用する。
ユーザスタディでは、UniHumanは平均して77%のケースでユーザに好まれる。
論文 参考訳(メタデータ) (2023-12-22T05:00:30Z) - HyperHuman: Hyper-Realistic Human Generation with Latent Structural Diffusion [114.15397904945185]
本稿では,高リアリズムと多彩なレイアウトの人体画像を生成する統一的なフレームワークHyperHumanを提案する。
本モデルは,統合ネットワークにおける画像の外観,空間的関係,幾何学の連成学習を強制する。
我々のフレームワークは最先端の性能を生み出し、多様なシナリオ下で超現実的な人間の画像を生成する。
論文 参考訳(メタデータ) (2023-10-12T17:59:34Z) - PixelHuman: Animatable Neural Radiance Fields from Few Images [27.932366091437103]
我々は,人の数枚の画像からアニマタブルな人間のシーンを生成する新しいレンダリングモデルであるPixelHumanを提案する。
提案手法は既存の手法と異なり, 人体合成のための任意の入力画像に一般化可能である。
実験により,本手法はマルチビューで最先端の性能を達成し,少数ショット画像から新しいポーズ合成を実現する。
論文 参考訳(メタデータ) (2023-07-18T08:41:17Z) - DELAUNAY: a dataset of abstract art for psychophysical and machine
learning research [0.0]
本稿では,抽象絵画のデータセットであるDELAUNAYについて紹介する。
このデータセットは、自然画像と人工パターンの中間層を提供し、様々なコンテキストで使用することができる。
私たちはDELAUNAYで市販の畳み込みニューラルネットワークをトレーニングし、その興味深い特徴をいくつか強調します。
論文 参考訳(メタデータ) (2022-01-28T13:57:32Z) - HSPACE: Synthetic Parametric Humans Animated in Complex Environments [67.8628917474705]
我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
論文 参考訳(メタデータ) (2021-12-23T22:27:55Z) - Comparing Visual Reasoning in Humans and AI [66.89451296340809]
人間の行動や社会的相互作用を含む複雑なシーンのデータセットを作成しました。
ai/ヒューマンのシーン記述と、各シーンの他の5つの人間記述の地上真実との類似度を定量的に測定した。
結果は、機械/人間の合意シーンの説明は、私たちの複雑なシーンの人間/人間の合意よりもはるかに低いことを示しています。
論文 参考訳(メタデータ) (2021-04-29T04:44:13Z) - Holistic 3D Human and Scene Mesh Estimation from Single View Images [5.100152971410397]
本稿では,1枚のRGB画像から3Dシーンを知覚するエンド・ツー・エンドのトレーニング可能なモデルを提案する。
本研究では,既存の人体メッシュ法や屋内シーン再構築法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-02T23:22:03Z) - Long-term Human Motion Prediction with Scene Context [60.096118270451974]
人間の動きを予測するための新しい3段階フレームワークを提案する。
提案手法はまず,まず複数の人間の動作目標を抽出し,各目標に向けて3次元人間の動作経路を計画し,最後に各経路に続く3次元人間のポーズシーケンスを予測する。
論文 参考訳(メタデータ) (2020-07-07T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。