論文の概要: ILSH: The Imperial Light-Stage Head Dataset for Human Head View
Synthesis
- arxiv url: http://arxiv.org/abs/2310.03952v1
- Date: Fri, 6 Oct 2023 00:32:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-10 04:07:28.912997
- Title: ILSH: The Imperial Light-Stage Head Dataset for Human Head View
Synthesis
- Title(参考訳): ILSH:人間のヘッドビュー合成のためのインペリアルライトステージヘッドデータセット
- Authors: Jiali Zheng, Youngkyoon Jang, Athanasios Papaioannou, Christos
Kampouris, Rolandos Alexandros Potamias, Foivos Paraperas Papantoniou,
Efstathios Galanakis, Ales Leonardis, Stefanos Zafeiriou
- Abstract要約: Imperial Light-Stage Headデータセットは、人間の頭に対する視覚合成の課題をサポートするために設計された、新しいデータセットである。
本稿では,高解像度(4K)人間の頭部画像の撮影に特化して設計された光ステージのセットアップについて詳述する。
データ収集に加えて、データセットのトレイン、バリデーション、テストセットへの分割にも対処します。
- 参考スコア(独自算出の注目度): 42.81410101705251
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces the Imperial Light-Stage Head (ILSH) dataset, a novel
light-stage-captured human head dataset designed to support view synthesis
academic challenges for human heads. The ILSH dataset is intended to facilitate
diverse approaches, such as scene-specific or generic neural rendering,
multiple-view geometry, 3D vision, and computer graphics, to further advance
the development of photo-realistic human avatars. This paper details the setup
of a light-stage specifically designed to capture high-resolution (4K) human
head images and describes the process of addressing challenges (preprocessing,
ethical issues) in collecting high-quality data. In addition to the data
collection, we address the split of the dataset into train, validation, and
test sets. Our goal is to design and support a fair view synthesis challenge
task for this novel dataset, such that a similar level of performance can be
maintained and expected when using the test set, as when using the validation
set. The ILSH dataset consists of 52 subjects captured using 24 cameras with
all 82 lighting sources turned on, resulting in a total of 1,248 close-up head
images, border masks, and camera pose pairs.
- Abstract(参考訳): 本稿では,人間の頭部に対する視覚合成の学術的課題を支援するために設計された,新しい光ステージキャプチャ型ヒト頭部データセットである imperial light-stage head (ilsh) dataset について述べる。
ILSHデータセットは、シーン特異的または汎用的なニューラルレンダリング、マルチビュー幾何学、3Dビジョン、コンピュータグラフィックスといった多様なアプローチを促進することを目的としており、フォトリアリスティックな人間のアバターの開発をさらに進めている。
本稿では,高分解能 (4k) な頭部画像をキャプチャする光ステージのセットアップと,高品質なデータ収集における課題(前処理,倫理的問題)に対処するプロセスについて述べる。
データ収集に加えて、データセットのトレーニング、検証、テストセットへの分割にも対処します。
我々のゴールは、テストセットを使用する場合や検証セットを使用する場合のように、同様のレベルのパフォーマンスを維持および期待できるように、この新しいデータセットのための公正なビュー合成課題タスクを設計し、サポートすることである。
ILSHデータセットは、24台のカメラで撮影され、82個の光源が点灯し、合計1248個のクローズアップヘッドイメージ、バウンドマスク、カメラポーズペアで構成されている。
関連論文リスト
- Headset: Human emotion awareness under partial occlusions multimodal
dataset [19.57427512904342]
本稿では,没入型技術の発展を支援するため,新しいマルチモーダルデータベースを提案する。
提案するデータベースは倫理的に適合する多種多様なボリュームデータを提供し、特に27人の参加者が発話中に表情や微妙な身体の動きを呈示し、11人の参加者がヘッドマウントディスプレイ(HMD)を着用している。
このデータセットは、表情認識と再構成、顔の再現、ボリュームビデオなど、さまざまなXRアルゴリズムの評価とパフォーマンステストに役立てることができる。
論文 参考訳(メタデータ) (2024-02-14T11:42:15Z) - EFHQ: Multi-purpose ExtremePose-Face-HQ dataset [1.9875736447806327]
この研究は、Extreme Pose Face High-Qualityデータセット(EFHQ)と呼ばれる新しいデータセットを導入し、極端なポーズで顔の最大450kの高品質な画像を含む。
このような膨大なデータセットを生成するために、我々は、新しく精巧なデータセット処理パイプラインを使用して、2つの公開データセットをキュレートする。
我々のデータセットは、顔合成と2D/3D対応のGAN、拡散ベースの顔生成、顔の再現など、さまざまな顔関連タスクに関する既存のデータセットを補完することができる。
論文 参考訳(メタデータ) (2023-12-28T18:40:31Z) - Stellar: Systematic Evaluation of Human-Centric Personalized
Text-to-Image Methods [52.806258774051216]
我々は,個々のイメージを入力し,生成プロセスの基盤となるテキストと,所望の視覚的コンテキストを記述したテキストに焦点をあてる。
我々は,既存の関連するデータセットよりも桁違いの大きさの個人画像と,リッチなセマンティックな接地真実アノテーションが容易に利用できるパーソナライズされたプロンプトを含む標準化データセット(Stellar)を紹介した。
被験者ごとにテストタイムの微調整を必要とせず,新しいSoTAを定量的かつ人為的に設定した,シンプルで効率的でパーソナライズされたテキスト・ツー・イメージのベースラインを導出する。
論文 参考訳(メタデータ) (2023-12-11T04:47:39Z) - DNA-Rendering: A Diverse Neural Actor Repository for High-Fidelity
Human-centric Rendering [126.00165445599764]
ニューラルアクターレンダリングのための人間のパフォーマンスデータの大規模かつ高忠実なリポジトリであるDNAレンダリングを提案する。
我々のデータセットには、1500人以上の被験者、5000のモーションシーケンス、67.5Mのフレームのデータボリュームが含まれています。
我々は,最大解像度4096 x 3000の60個の同期カメラと15fpsの速度,ステルカメラキャリブレーションステップを含む,データをキャプチャするプロフェッショナルなマルチビューシステムを構築した。
論文 参考訳(メタデータ) (2023-07-19T17:58:03Z) - RenderMe-360: A Large Digital Asset Library and Benchmarks Towards
High-fidelity Head Avatars [157.82758221794452]
RenderMe-360は、頭部アバター研究の進歩を促進するための総合的な4次元人間の頭部データセットである。
そこには大量のデータ資産があり、合計で243万あまりのヘッドフレームと、500の異なるアイデンティティから8万件のビデオシーケンスがある。
データセットに基づいて、頭部アバター研究のための総合的なベンチマークを構築し、5つの主要なタスクで16の最先端の手法を実行した。
論文 参考訳(メタデータ) (2023-05-22T17:54:01Z) - StyleGAN-Human: A Data-Centric Odyssey of Human Generation [96.7080874757475]
この研究は、データ中心の観点から、"データエンジニアリング"における複数の重要な側面を調査します。
さまざまなポーズやテクスチャを抽出した230万以上のサンプルで、大規模な人間の画像データセットを収集し、注釈付けします。
本稿では,データサイズ,データ分布,データアライメントといった,スタイルGANに基づく人為的生成のためのデータ工学における3つの重要な要素について精査する。
論文 参考訳(メタデータ) (2022-04-25T17:55:08Z) - UET-Headpose: A sensor-based top-view head pose dataset [0.0]
本稿では,頭部画像の収集に費用効率が高く,セットアップが容易な新しい手法を提案する。
この方法は、Depthカメラの代わりに絶対方位センサを使用して、迅速かつ安価に設定できる。
また,FSANet-Wideと呼ばれるフルレンジモデルを導入し,UET-Headposeデータセットによる頭部ポーズ推定結果を大幅に上回っている。
論文 参考訳(メタデータ) (2021-11-13T04:54:20Z) - Hypersim: A Photorealistic Synthetic Dataset for Holistic Indoor Scene
Understanding [8.720130442653575]
Hypersimは、総合的な屋内シーン理解のための合成データセットである。
室内461のシーンを77,400枚生成し,詳細なピクセルごとのラベルとそれに対応する地平線形状を推定した。
論文 参考訳(メタデータ) (2020-11-04T20:12:07Z) - SelfPose: 3D Egocentric Pose Estimation from a Headset Mounted Camera [97.0162841635425]
頭部装着型VR装置の縁に設置した下向きの魚眼カメラから撮影した単眼画像から,エゴセントリックな3Dボディポーズ推定法を提案する。
この特異な視点は、厳密な自己閉塞と視点歪みを伴う、独特の視覚的な外観のイメージに繋がる。
本稿では,2次元予測の不確実性を考慮した新しいマルチブランチデコーダを用いたエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-02T16:18:06Z) - Methodology for Building Synthetic Datasets with Virtual Humans [1.5556923898855324]
大規模なデータセットは、ディープニューラルネットワークの改善、ターゲットトレーニングに使用することができる。
特に,100の合成IDからなるデータセットにまたがる複数の2次元画像のレンダリングに3次元形態素顔モデルを用いる。
論文 参考訳(メタデータ) (2020-06-21T10:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。