論文の概要: Beyond a Single Light: A Large-Scale Aerial Dataset for Urban Scene Reconstruction Under Varying Illumination
- arxiv url: http://arxiv.org/abs/2512.14200v1
- Date: Tue, 16 Dec 2025 08:47:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.644047
- Title: Beyond a Single Light: A Large-Scale Aerial Dataset for Urban Scene Reconstruction Under Varying Illumination
- Title(参考訳): 単一光の向こう側:空調照明下での都市景観復元のための大規模空調データセット
- Authors: Zhuoxiao Li, Wenzong Ma, Taoyu Wu, Jinjing Zhu, Zhenchao Q, Shuai Zhang, Jing Ou, Yinrui Ren, Weiqing Qi, Guobin Shen, Hui Xiong, Wufan Zhao,
- Abstract要約: 都市景観のモデリングにおいて,照明の堅牢な3次元再構成を特に研究するためのデータセットSkyLumeを紹介した。
100k以上の高分解能UAV画像からなる10の都市域データからデータを収集する。
各種照明下での深度, 表面の正常度, 再現性を評価するために, シーンごとのLiDARスキャンと正確な3次元地下構造を提供する。
- 参考スコア(独自算出の注目度): 27.470486341807316
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advances in Neural Radiance Fields and 3D Gaussian Splatting have demonstrated strong potential for large-scale UAV-based 3D reconstruction tasks by fitting the appearance of images. However, real-world large-scale captures are often based on multi-temporal data capture, where illumination inconsistencies across different times of day can significantly lead to color artifacts, geometric inaccuracies, and inconsistent appearance. Due to the lack of UAV datasets that systematically capture the same areas under varying illumination conditions, this challenge remains largely underexplored. To fill this gap, we introduceSkyLume, a large-scale, real-world UAV dataset specifically designed for studying illumination robust 3D reconstruction in urban scene modeling: (1) We collect data from 10 urban regions data comprising more than 100k high resolution UAV images (four oblique views and nadir), where each region is captured at three periods of the day to systematically isolate illumination changes. (2) To support precise evaluation of geometry and appearance, we provide per-scene LiDAR scans and accurate 3D ground-truth for assessing depth, surface normals, and reconstruction quality under varying illumination. (3) For the inverse rendering task, we introduce the Temporal Consistency Coefficient (TCC), a metric that measuress cross-time albedo stability and directly evaluates the robustness of the disentanglement of light and material. We aim for this resource to serve as a foundation that advances research and real-world evaluation in large-scale inverse rendering, geometry reconstruction, and novel view synthesis.
- Abstract(参考訳): 近年のニューラル・レージアン・フィールドと3Dガウス・スプラッティングの進歩は、画像の外観に合わせることで、大規模なUAVベースの3D再構成タスクに強い可能性を示している。
しかし、現実の大規模なキャプチャは、しばしばマルチ時間データキャプチャに基づいており、異なる時間帯にわたる照明の不整合は、色のアーティファクト、幾何学的不正確な不整合、不整合な外観を著しく引き起こす可能性がある。
異なる照明条件下で同じ領域を体系的に捕捉するUAVデータセットが欠如しているため、この課題の大部分は未調査のままである。
このギャップを埋めるために,1)100k以上の高解像度UAV画像(4つの斜めビューとナディル)からなる10の都市領域のデータを収集し,各領域を1日3回の時間で捕捉し,照明変化を系統的に分離する。
2) 地形・外観の精密評価を支援するため, 照明条件の異なる深度, 表面の正常度, 再現性を評価するために, シーンごとのLiDARスキャンと正確な3次元地下構造を提供する。
(3)逆レンダリングタスクでは,時間的アルベド安定性を計測し,光と材料の絡み合いの堅牢性を直接評価する指標であるTCC(Temporal Consistency Coefficient)を導入する。
本研究では, 大規模逆レンダリング, 幾何再構成, 新規ビュー合成において, 研究と実世界評価を進展させる基盤となることを目指している。
関連論文リスト
- UAVLight: A Benchmark for Illumination-Robust 3D Reconstruction in Unmanned Aerial Vehicle (UAV) Scenes [17.205790966354705]
UAVLight(UAVLight)は、照明・ローバースト3D再構成のための制御済みのリアルタイムベンチマークである。
各シーンは、複数の一定時間に繰り返し、地理的に参照された飛行経路に沿って撮影される。
照明条件の標準化された評価プロトコルにより、UAVLightは再構成手法の開発とベンチマークのための信頼性の高い基盤を提供する。
論文 参考訳(メタデータ) (2025-11-26T16:38:29Z) - Unconstrained Large-scale 3D Reconstruction and Rendering across Altitudes [3.612819935891695]
我々は,複数のキャリブレーションされた地上レベル,セキュリティレベル,空中カメラに基づく3次元再構成と新しいビュー合成のための最初の公開ベンチマークデータセットを開発した。
提案するデータセットは,現実の課題に対処し,未提示カメラの校正と新たなレンダリングビューの品質を独立に評価し,最近の最先端手法によるベースライン性能を実証し,さらなる研究の課題を特定する。
論文 参考訳(メタデータ) (2025-04-29T19:57:29Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - IDArb: Intrinsic Decomposition for Arbitrary Number of Input Views and Illuminations [64.07859467542664]
画像から幾何学的および物質的情報をキャプチャすることは、コンピュータビジョンとグラフィックスの基本的な課題である。
従来の最適化に基づく手法では、密集した多視点入力から幾何学、材料特性、環境照明を再構築するために数時間の計算時間を必要とすることが多い。
IDArbは、様々な照明条件下で、任意の画像に対して本質的な分解を行うために設計された拡散モデルである。
論文 参考訳(メタデータ) (2024-12-16T18:52:56Z) - RaNeuS: Ray-adaptive Neural Surface Reconstruction [87.20343320266215]
微分可能放射場 eg NeRF を利用して、新しいビューレンダリングを生成するとともに、詳細な3次元表面を再構成する。
本研究では,SDFから放射場への射影を一様等間隔のアイコニカル正規化で定式化し,最適化することを考えると,光度重み付け係数を改良する。
提案する textitRaNeuS は,合成データと実データの両方で広く評価されている。
論文 参考訳(メタデータ) (2024-06-14T07:54:25Z) - StableDreamer: Taming Noisy Score Distillation Sampling for Text-to-3D [88.66678730537777]
本稿では3つの進歩を取り入れた方法論であるStableDreamerを紹介する。
まず、SDS生成前の等価性と、簡単な教師付きL2再構成損失を定式化する。
第2に,画像空間拡散は幾何学的精度に寄与するが,色調の鮮明化には潜時空間拡散が不可欠であることを示す。
論文 参考訳(メタデータ) (2023-12-02T02:27:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。