論文の概要: Seeing in the Dark: Benchmarking Egocentric 3D Vision with the Oxford Day-and-Night Dataset
- arxiv url: http://arxiv.org/abs/2506.04224v1
- Date: Wed, 04 Jun 2025 17:59:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.519735
- Title: Seeing in the Dark: Benchmarking Egocentric 3D Vision with the Oxford Day-and-Night Dataset
- Title(参考訳): 暗闇で見る:オックスフォードの昼と夜のデータセットでエゴセントリックな3Dビジョンをベンチマークする
- Authors: Zirui Wang, Wenjing Bian, Xinghui Li, Yifu Tao, Jianeng Wang, Maurice Fallon, Victor Adrian Prisacariu,
- Abstract要約: オックスフォード・デイ・アンド・ナイト(Oxford Day-and-Night)は、新しいビュー合成(NVS)と、困難な照明条件下での視覚的再局在のための大規模でエゴセントリックなデータセットである。
NVSと再ローカライゼーションという2つのコアベンチマークをサポートし、現実的で多様な環境でモデルを評価するためのユニークなプラットフォームを提供する。
- 参考スコア(独自算出の注目度): 20.470784087903514
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce Oxford Day-and-Night, a large-scale, egocentric dataset for novel view synthesis (NVS) and visual relocalisation under challenging lighting conditions. Existing datasets often lack crucial combinations of features such as ground-truth 3D geometry, wide-ranging lighting variation, and full 6DoF motion. Oxford Day-and-Night addresses these gaps by leveraging Meta ARIA glasses to capture egocentric video and applying multi-session SLAM to estimate camera poses, reconstruct 3D point clouds, and align sequences captured under varying lighting conditions, including both day and night. The dataset spans over 30 $\mathrm{km}$ of recorded trajectories and covers an area of 40,000 $\mathrm{m}^2$, offering a rich foundation for egocentric 3D vision research. It supports two core benchmarks, NVS and relocalisation, providing a unique platform for evaluating models in realistic and diverse environments.
- Abstract(参考訳): 我々は、新しいビュー合成(NVS)と視覚的再局在のための大規模でエゴセントリックなデータセットであるOxford Day-and-Nightを紹介した。
既存のデータセットには、グラウンドトルース3D幾何、広帯域照明のバリエーション、フル6DoFモーションといった重要な組み合わせがないことが多い。
オックスフォード・デイ・アンド・ナイト(Oxford Day-and-Night)は、Meta ARIAメガネを利用して、エゴセントリックなビデオを撮影し、マルチセッションSLAMを使ってカメラのポーズを推定し、3Dポイントの雲を再構築し、昼と夜の両方を含む様々な照明条件下でキャプチャされたシーケンスを調整することで、これらのギャップに対処する。
データセットは記録されたトラジェクトリの30$\mathrm{km}$を超え、エゴセントリックな3D視覚研究のための豊富な基盤を提供する40,000$\mathrm{m}^2$の領域をカバーする。
NVSと再ローカライゼーションという2つのコアベンチマークをサポートし、現実的で多様な環境でモデルを評価するためのユニークなプラットフォームを提供する。
関連論文リスト
- See through the Dark: Learning Illumination-affined Representations for Nighttime Occupancy Prediction [22.695247104302123]
職業予測は,占領地域の3次元空間分布とそれに対応する意味ラベルを推定することを目的としている。
照明に適応した表現を学習する新しいフレームワークである textbfLIAR を提案する。
実データと合成データの両方の実験は、挑戦的な夜間シナリオ下でのLIARの優れた性能を示している。
論文 参考訳(メタデータ) (2025-05-27T02:40:49Z) - FIORD: A Fisheye Indoor-Outdoor Dataset with LIDAR Ground Truth for 3D Scene Reconstruction and Benchmarking [29.634708606525727]
本研究では,シーン再構築作業に適した魚眼画像データセットを提案する。
2つの200度の魚眼レンズを使って、私たちのデータセットは5つの屋内と5つの屋外のシーンの完全な360度カバレッジを提供します。
それぞれのシーンには、SfM点雲と正確なLIDAR由来の高密度な点雲があり、幾何学的な地平線として使用できる。
論文 参考訳(メタデータ) (2025-04-02T13:41:23Z) - Any6D: Model-free 6D Pose Estimation of Novel Objects [76.30057578269668]
我々は,6次元オブジェクトのポーズ推定のためのモデルフリーフレームワークであるAny6Dを紹介する。
新たなシーンでは、未知の物体の6Dポーズと大きさを推定するために、1枚のRGB-Dアンカー画像しか必要としない。
提案手法を5つの挑戦的データセットで評価する。
論文 参考訳(メタデータ) (2025-03-24T13:46:21Z) - Sun Off, Lights On: Photorealistic Monocular Nighttime Simulation for Robust Semantic Perception [53.631644875171595]
夜間のシーンは、学習したモデルで意味的に知覚し、人間に注釈を付けるのは難しい。
本手法は,1枚の画像の夜間シミュレーションを3Dで行う方法として,サンオフ,ライトオン (SOLO) と命名された。
夜間画像の視覚的品質と光リアリズムは,拡散モデルを含む競合するアプローチよりも優れているだけでなく,従来の画像は,昼夜適応における意味的夜間セグメンテーションに有益であることが証明されている。
論文 参考訳(メタデータ) (2024-07-29T18:00:09Z) - MegaScenes: Scene-Level View Synthesis at Scale [69.21293001231993]
NVS (Scene-level novel view synthesis) は多くの視覚やグラフィックスの応用に基礎を置いている。
MegaScenesと呼ばれるインターネット写真コレクションから大規模なシーンレベルのデータセットを作成し、世界中の動き(SfM)から100K以上の構造を復元する。
我々は、最先端NVS手法の故障事例を分析し、生成一貫性を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-17T17:55:55Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal Pre-training Paradigm [111.16358607889609]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。