論文の概要: Charge: A Comprehensive Novel View Synthesis Benchmark and Dataset to Bind Them All
- arxiv url: http://arxiv.org/abs/2512.13639v1
- Date: Mon, 15 Dec 2025 18:33:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.805498
- Title: Charge: A Comprehensive Novel View Synthesis Benchmark and Dataset to Bind Them All
- Title(参考訳): Charge: 総合的なビュー合成ベンチマークとバインドテーマへのデータセット
- Authors: Michal Nazarczuk, Thomas Tanay, Arthur Moreau, Zhensong Zhang, Eduardo Pérez-Pellitero,
- Abstract要約: 本稿では,高画質・高精細な現実感と複雑な細部を有するアニメーション映画から生成した,新規ビュー合成のための新しいデータセットを提案する。
私たちのデータセットは様々なダイナミックなシーンを捉え、詳細なテクスチャ、照明、動きで完結しています。
最先端の4Dシーン再構成と新しいビュー生成モデルの訓練と評価に最適である。
- 参考スコア(独自算出の注目度): 21.211645353347908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a new dataset for Novel View Synthesis, generated from a high-quality, animated film with stunning realism and intricate detail. Our dataset captures a variety of dynamic scenes, complete with detailed textures, lighting, and motion, making it ideal for training and evaluating cutting-edge 4D scene reconstruction and novel view generation models. In addition to high-fidelity RGB images, we provide multiple complementary modalities, including depth, surface normals, object segmentation and optical flow, enabling a deeper understanding of scene geometry and motion. The dataset is organised into three distinct benchmarking scenarios: a dense multi-view camera setup, a sparse camera arrangement, and monocular video sequences, enabling a wide range of experimentation and comparison across varying levels of data sparsity. With its combination of visual richness, high-quality annotations, and diverse experimental setups, this dataset offers a unique resource for pushing the boundaries of view synthesis and 3D vision.
- Abstract(参考訳): 本稿では,高画質・高精細な現実感と複雑な細部を有するアニメーション映画から生成した,新規ビュー合成のための新しいデータセットを提案する。
我々のデータセットは、細かなテクスチャ、照明、動きを備えた様々なダイナミックなシーンをキャプチャし、最先端の4Dシーンの再構築と新しいビュー生成モデルの訓練と評価に最適である。
高忠実度RGB画像に加えて、深度、表面正規度、物体セグメンテーション、光学フローなど、複数の相補的なモダリティを提供し、シーン形状や動きのより深い理解を可能にする。
データセットは、密集したマルチビューカメラセットアップ、スパースカメラアレンジメント、モノクロビデオシーケンスの3つの異なるベンチマークシナリオに編成されている。
視覚豊かさ、高品質のアノテーション、多様な実験的な設定を組み合わせることで、このデータセットはビュー合成と3Dビジョンの境界を押し上げるためのユニークなリソースを提供する。
関連論文リスト
- SpatialCrafter: Unleashing the Imagination of Video Diffusion Models for Scene Reconstruction from Limited Observations [44.53106180688135]
この作業は、スパースやシングルビューのインプットから3Dシーンを再構築する上での課題である。
SpatialCrafterは,ビデオ拡散モデルにおける豊富な知識を活用して,可算的な追加観測を生成するフレームワークである。
トレーニング可能なカメラエンコーダと、明示的な幾何学的制約に対するエピポーラアテンション機構により、精密なカメラ制御と3D整合性を実現する。
論文 参考訳(メタデータ) (2025-05-17T13:05:13Z) - FIORD: A Fisheye Indoor-Outdoor Dataset with LIDAR Ground Truth for 3D Scene Reconstruction and Benchmarking [29.634708606525727]
本研究では,シーン再構築作業に適した魚眼画像データセットを提案する。
2つの200度の魚眼レンズを使って、私たちのデータセットは5つの屋内と5つの屋外のシーンの完全な360度カバレッジを提供します。
それぞれのシーンには、SfM点雲と正確なLIDAR由来の高密度な点雲があり、幾何学的な地平線として使用できる。
論文 参考訳(メタデータ) (2025-04-02T13:41:23Z) - GS-Blur: A 3D Scene-Based Dataset for Realistic Image Deblurring [50.72230109855628]
本稿では,新しい手法を用いて合成されたリアルなぼやけた画像のデータセットであるGS-Blurを提案する。
まず,3Dガウス・スプレイティング(3DGS)を用いて多視点画像から3Dシーンを再構成し,ランダムに生成された運動軌跡に沿ってカメラビューを移動させてぼやけた画像を描画する。
GS-Blurの再構築に様々なカメラトラジェクトリを採用することで、我々のデータセットは現実的で多様な種類のぼかしを含み、現実世界のぼかしをうまく一般化する大規模なデータセットを提供する。
論文 参考訳(メタデータ) (2024-10-31T06:17:16Z) - ViewCrafter: Taming Video Diffusion Models for High-fidelity Novel View Synthesis [63.169364481672915]
単一またはスパース画像からジェネリックシーンの高忠実な新規ビューを合成する新しい方法である textbfViewCrafter を提案する。
提案手法は,映像拡散モデルの強力な生成能力と,ポイントベース表現によって提供される粗い3D手がかりを利用して高品質な映像フレームを生成する。
論文 参考訳(メタデータ) (2024-09-03T16:53:19Z) - 360 in the Wild: Dataset for Depth Prediction and View Synthesis [66.58513725342125]
大規模な360$circ$ビデオデータセットを野放しに導入する。
このデータセットはインターネットから慎重に取り除かれ、世界中で様々な場所から収集されている。
データセットを構成する25K画像のそれぞれに、それぞれのカメラのポーズと深さマップが提供される。
論文 参考訳(メタデータ) (2024-06-27T05:26:38Z) - SAMPLING: Scene-adaptive Hierarchical Multiplane Images Representation
for Novel View Synthesis from a Single Image [60.52991173059486]
単一画像からの新規ビュー合成のためのシーン適応型階層型多面体画像表現であるSAMPlingを紹介する。
提案手法は,KITTIデータセット上の単一画像を用いて,大規模非有界屋外シーンにおいてかなりの性能向上を示す。
論文 参考訳(メタデータ) (2023-09-12T15:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。