論文の概要: ILSH: The Imperial Light-Stage Head Dataset for Human Head View
Synthesis
- arxiv url: http://arxiv.org/abs/2310.03952v1
- Date: Fri, 6 Oct 2023 00:32:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-10 04:07:28.912997
- Title: ILSH: The Imperial Light-Stage Head Dataset for Human Head View
Synthesis
- Title(参考訳): ILSH:人間のヘッドビュー合成のためのインペリアルライトステージヘッドデータセット
- Authors: Jiali Zheng, Youngkyoon Jang, Athanasios Papaioannou, Christos
Kampouris, Rolandos Alexandros Potamias, Foivos Paraperas Papantoniou,
Efstathios Galanakis, Ales Leonardis, Stefanos Zafeiriou
- Abstract要約: Imperial Light-Stage Headデータセットは、人間の頭に対する視覚合成の課題をサポートするために設計された、新しいデータセットである。
本稿では,高解像度(4K)人間の頭部画像の撮影に特化して設計された光ステージのセットアップについて詳述する。
データ収集に加えて、データセットのトレイン、バリデーション、テストセットへの分割にも対処します。
- 参考スコア(独自算出の注目度): 42.81410101705251
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces the Imperial Light-Stage Head (ILSH) dataset, a novel
light-stage-captured human head dataset designed to support view synthesis
academic challenges for human heads. The ILSH dataset is intended to facilitate
diverse approaches, such as scene-specific or generic neural rendering,
multiple-view geometry, 3D vision, and computer graphics, to further advance
the development of photo-realistic human avatars. This paper details the setup
of a light-stage specifically designed to capture high-resolution (4K) human
head images and describes the process of addressing challenges (preprocessing,
ethical issues) in collecting high-quality data. In addition to the data
collection, we address the split of the dataset into train, validation, and
test sets. Our goal is to design and support a fair view synthesis challenge
task for this novel dataset, such that a similar level of performance can be
maintained and expected when using the test set, as when using the validation
set. The ILSH dataset consists of 52 subjects captured using 24 cameras with
all 82 lighting sources turned on, resulting in a total of 1,248 close-up head
images, border masks, and camera pose pairs.
- Abstract(参考訳): 本稿では,人間の頭部に対する視覚合成の学術的課題を支援するために設計された,新しい光ステージキャプチャ型ヒト頭部データセットである imperial light-stage head (ilsh) dataset について述べる。
ILSHデータセットは、シーン特異的または汎用的なニューラルレンダリング、マルチビュー幾何学、3Dビジョン、コンピュータグラフィックスといった多様なアプローチを促進することを目的としており、フォトリアリスティックな人間のアバターの開発をさらに進めている。
本稿では,高分解能 (4k) な頭部画像をキャプチャする光ステージのセットアップと,高品質なデータ収集における課題(前処理,倫理的問題)に対処するプロセスについて述べる。
データ収集に加えて、データセットのトレーニング、検証、テストセットへの分割にも対処します。
我々のゴールは、テストセットを使用する場合や検証セットを使用する場合のように、同様のレベルのパフォーマンスを維持および期待できるように、この新しいデータセットのための公正なビュー合成課題タスクを設計し、サポートすることである。
ILSHデータセットは、24台のカメラで撮影され、82個の光源が点灯し、合計1248個のクローズアップヘッドイメージ、バウンドマスク、カメラポーズペアで構成されている。
関連論文リスト
- VGGHeads: A Large-Scale Synthetic Dataset for 3D Human Heads [18.62716110331954]
VGGHeadsは人間の頭部検出と3Dメッシュ推定のための拡散モデルで生成された大規模な合成データセットである。
私たちのデータセットは100万以上の高解像度画像で構成されており、それぞれに詳細な3Dヘッドメッシュ、顔のランドマーク、バウンディングボックスがアノテートされている。
論文 参考訳(メタデータ) (2024-07-25T17:58:17Z) - 360 in the Wild: Dataset for Depth Prediction and View Synthesis [66.58513725342125]
大規模な360$circ$ビデオデータセットを野放しに導入する。
このデータセットはインターネットから慎重に取り除かれ、世界中で様々な場所から収集されている。
データセットを構成する25K画像のそれぞれに、それぞれのカメラのポーズと深さマップが提供される。
論文 参考訳(メタデータ) (2024-06-27T05:26:38Z) - LWIRPOSE: A novel LWIR Thermal Image Dataset and Benchmark [9.679771580702258]
このデータセットは、2400以上の高品質なLWIR(熱)画像で構成されている。
それぞれの画像には2Dの人間のポーズが刻まれており、研究者や実践者にとって貴重なリソースとなっている。
我々は、その可能性を示すために、データセットの最先端ポーズ推定手法をベンチマークする。
論文 参考訳(メタデータ) (2024-04-16T01:49:35Z) - Headset: Human emotion awareness under partial occlusions multimodal
dataset [19.57427512904342]
本稿では,没入型技術の発展を支援するため,新しいマルチモーダルデータベースを提案する。
提案するデータベースは倫理的に適合する多種多様なボリュームデータを提供し、特に27人の参加者が発話中に表情や微妙な身体の動きを呈示し、11人の参加者がヘッドマウントディスプレイ(HMD)を着用している。
このデータセットは、表情認識と再構成、顔の再現、ボリュームビデオなど、さまざまなXRアルゴリズムの評価とパフォーマンステストに役立てることができる。
論文 参考訳(メタデータ) (2024-02-14T11:42:15Z) - DNA-Rendering: A Diverse Neural Actor Repository for High-Fidelity
Human-centric Rendering [126.00165445599764]
ニューラルアクターレンダリングのための人間のパフォーマンスデータの大規模かつ高忠実なリポジトリであるDNAレンダリングを提案する。
我々のデータセットには、1500人以上の被験者、5000のモーションシーケンス、67.5Mのフレームのデータボリュームが含まれています。
我々は,最大解像度4096 x 3000の60個の同期カメラと15fpsの速度,ステルカメラキャリブレーションステップを含む,データをキャプチャするプロフェッショナルなマルチビューシステムを構築した。
論文 参考訳(メタデータ) (2023-07-19T17:58:03Z) - RenderMe-360: A Large Digital Asset Library and Benchmarks Towards
High-fidelity Head Avatars [157.82758221794452]
RenderMe-360は、頭部アバター研究の進歩を促進するための総合的な4次元人間の頭部データセットである。
そこには大量のデータ資産があり、合計で243万あまりのヘッドフレームと、500の異なるアイデンティティから8万件のビデオシーケンスがある。
データセットに基づいて、頭部アバター研究のための総合的なベンチマークを構築し、5つの主要なタスクで16の最先端の手法を実行した。
論文 参考訳(メタデータ) (2023-05-22T17:54:01Z) - StyleGAN-Human: A Data-Centric Odyssey of Human Generation [96.7080874757475]
この研究は、データ中心の観点から、"データエンジニアリング"における複数の重要な側面を調査します。
さまざまなポーズやテクスチャを抽出した230万以上のサンプルで、大規模な人間の画像データセットを収集し、注釈付けします。
本稿では,データサイズ,データ分布,データアライメントといった,スタイルGANに基づく人為的生成のためのデータ工学における3つの重要な要素について精査する。
論文 参考訳(メタデータ) (2022-04-25T17:55:08Z) - UET-Headpose: A sensor-based top-view head pose dataset [0.0]
本稿では,頭部画像の収集に費用効率が高く,セットアップが容易な新しい手法を提案する。
この方法は、Depthカメラの代わりに絶対方位センサを使用して、迅速かつ安価に設定できる。
また,FSANet-Wideと呼ばれるフルレンジモデルを導入し,UET-Headposeデータセットによる頭部ポーズ推定結果を大幅に上回っている。
論文 参考訳(メタデータ) (2021-11-13T04:54:20Z) - Hypersim: A Photorealistic Synthetic Dataset for Holistic Indoor Scene
Understanding [8.720130442653575]
Hypersimは、総合的な屋内シーン理解のための合成データセットである。
室内461のシーンを77,400枚生成し,詳細なピクセルごとのラベルとそれに対応する地平線形状を推定した。
論文 参考訳(メタデータ) (2020-11-04T20:12:07Z) - SelfPose: 3D Egocentric Pose Estimation from a Headset Mounted Camera [97.0162841635425]
頭部装着型VR装置の縁に設置した下向きの魚眼カメラから撮影した単眼画像から,エゴセントリックな3Dボディポーズ推定法を提案する。
この特異な視点は、厳密な自己閉塞と視点歪みを伴う、独特の視覚的な外観のイメージに繋がる。
本稿では,2次元予測の不確実性を考慮した新しいマルチブランチデコーダを用いたエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-02T16:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。