論文の概要: UAVLight: A Benchmark for Illumination-Robust 3D Reconstruction in Unmanned Aerial Vehicle (UAV) Scenes
- arxiv url: http://arxiv.org/abs/2511.21565v1
- Date: Wed, 26 Nov 2025 16:38:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.197083
- Title: UAVLight: A Benchmark for Illumination-Robust 3D Reconstruction in Unmanned Aerial Vehicle (UAV) Scenes
- Title(参考訳): UAVLight:無人航空機(UAV)シーンにおける照明・ローバスト3D再構成のベンチマーク
- Authors: Kang Du, Xue Liao, Junpeng Xia, Chaozheng Guo, Yi Gu, Yirui Guan, Duotun Wang, ShengHuang, Zeyu Wang,
- Abstract要約: UAVLight(UAVLight)は、照明・ローバースト3D再構成のための制御済みのリアルタイムベンチマークである。
各シーンは、複数の一定時間に繰り返し、地理的に参照された飛行経路に沿って撮影される。
照明条件の標準化された評価プロトコルにより、UAVLightは再構成手法の開発とベンチマークのための信頼性の高い基盤を提供する。
- 参考スコア(独自算出の注目度): 17.205790966354705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Illumination inconsistency is a fundamental challenge in multi-view 3D reconstruction. Variations in sunlight direction, cloud cover, and shadows break the constant-lighting assumption underlying both classical multi-view stereo (MVS) and structure from motion (SfM) pipelines and recent neural rendering methods, leading to geometry drift, color inconsistency, and shadow imprinting. This issue is especially critical in UAV-based reconstruction, where long flight durations and outdoor environments make lighting changes unavoidable. However, existing datasets either restrict capture to short time windows, thus lacking meaningful illumination diversity, or span months and seasons, where geometric and semantic changes confound the isolated study of lighting robustness. We introduce UAVLight, a controlled-yet-real benchmark for illumination-robust 3D reconstruction. Each scene is captured along repeatable, geo-referenced flight paths at multiple fixed times of day, producing natural lighting variation under consistent geometry, calibration, and viewpoints. With standardized evaluation protocols across lighting conditions, UAVLight provides a reliable foundation for developing and benchmarking reconstruction methods that are consistent, faithful, and relightable in real outdoor environments.
- Abstract(参考訳): 照明不整合は多視点3次元再構成における基本的な課題である。
日光方向、雲の覆い、影の変化は、古典的な多視点ステレオ(MVS)と動きからの構造(SfM)パイプラインと最近のニューラルレンダリングの両方の基礎となる一定の光の仮定を破り、幾何学的ドリフト、色の不整合、影のインプリントをもたらす。
この問題は、長距離飛行と屋外環境が照明変更を回避できるUAVベースの再設計において特に重要である。
しかし、既存のデータセットは、キャプチャーを短い時間窓に制限し、有意義な照明の多様性を欠いているか、幾何学的および意味的な変化が、光の堅牢性に関する独立した研究と相まって、数ヶ月と季節にまたがる。
UAVLightは,照明・損壊3D再構成のための実時間制御型ベンチマークである。
それぞれのシーンは、幾度か固定された時間に繰り返し、地理的に参照された飛行経路に沿って撮影され、一貫した幾何学、キャリブレーション、視点の下で自然光の変動を生み出す。
照明条件の標準化された評価プロトコルにより、UAVLightは、実際の屋外環境で一貫性があり、忠実で、快適な再現方法の開発とベンチマークのための信頼性の高い基盤を提供する。
関連論文リスト
- Unifying Color and Lightness Correction with View-Adaptive Curve Adjustment for Robust 3D Novel View Synthesis [73.27997579020233]
多様な照明条件下での堅牢なNVSのための3DGSベースのフレームワークであるLuminance-GS++を提案する。
本手法は,グローバルな視野適応光度調整と局所画素ワイド残差補正を組み合わせ,正確な色補正を行う。
論文 参考訳(メタデータ) (2026-02-20T16:20:50Z) - Zero-Shot UAV Navigation in Forests via Relightable 3D Gaussian Splatting [11.31291385822484]
受動的単眼視を用いた非構造屋外環境におけるUAVナビゲーションは、シミュレーションと現実の間のかなりの視覚領域のギャップによって妨げられる。
本研究では,非構造化屋外への効率的なゼロショット転送を目的とした,エンドツーエンドの強化学習フレームワークを提案する。
本研究では, 複雑な森林環境において, 最大10m/sの速さで, 頑健で無衝突な航法を実現することを実証した。
論文 参考訳(メタデータ) (2026-02-06T15:51:03Z) - SplatBright: Generalizable Low-Light Scene Reconstruction from Sparse Views via Physically-Guided Gaussian Enhancement [26.905118897488077]
SplatBrightは、スパースsRGB入力からのジョイントローライト拡張と再構成のための最初の一般化可能な3Dガウスフレームワークである。
我々のキーとなる考え方は、物理的に誘導された照明モデリングと幾何学的外観の疎結合を統合して、一貫した低照度再構成を行うことである。
SplatBright は2D と 3D の両方の手法と比較して、目立たない低照度シーンに優れた新規ビュー合成、クロスビュー一貫性、そしてより良い一般化を実現している。
論文 参考訳(メタデータ) (2025-12-21T09:06:16Z) - Beyond a Single Light: A Large-Scale Aerial Dataset for Urban Scene Reconstruction Under Varying Illumination [27.470486341807316]
都市景観のモデリングにおいて,照明の堅牢な3次元再構成を特に研究するためのデータセットSkyLumeを紹介した。
100k以上の高分解能UAV画像からなる10の都市域データからデータを収集する。
各種照明下での深度, 表面の正常度, 再現性を評価するために, シーンごとのLiDARスキャンと正確な3次元地下構造を提供する。
論文 参考訳(メタデータ) (2025-12-16T08:47:56Z) - Light-X: Generative 4D Video Rendering with Camera and Illumination Control [52.87059646145144]
Light-Xは、視点制御と照明制御の両方でモノクロビデオから制御可能なレンダリングを可能にする、ビデオ生成フレームワークである。
マルチビューとマルチイルミネーションのペアビデオの欠如に対処するために,逆マッピングを備えた劣化ベースのパイプラインであるLight-Synを導入する。
論文 参考訳(メタデータ) (2025-12-04T18:59:57Z) - Lumos3D: A Single-Forward Framework for Low-Light 3D Scene Restoration [10.184395697154448]
我々は3次元低照度シーン復元のためのポーズレスフレームワークであるLumos3Dを紹介する。
幾何学的な基底を持つバックボーン上に構築されたLumos3Dは、通常の光の3Dガウス表現を再構成する。
実世界のデータセットの実験では、Lumos3Dは高忠実度低光度3Dシーンの復元を実現する。
論文 参考訳(メタデータ) (2025-11-12T23:42:03Z) - See through the Dark: Learning Illumination-affined Representations for Nighttime Occupancy Prediction [20.14637361013267]
LIARは照明に適応した表現を学習する新しいフレームワークである。
実データと合成データの両方の実験は、挑戦的な夜間シナリオ下でのLIARの優れた性能を示している。
論文 参考訳(メタデータ) (2025-05-27T02:40:49Z) - IDArb: Intrinsic Decomposition for Arbitrary Number of Input Views and Illuminations [64.07859467542664]
画像から幾何学的および物質的情報をキャプチャすることは、コンピュータビジョンとグラフィックスの基本的な課題である。
従来の最適化に基づく手法では、密集した多視点入力から幾何学、材料特性、環境照明を再構築するために数時間の計算時間を必要とすることが多い。
IDArbは、様々な照明条件下で、任意の画像に対して本質的な分解を行うために設計された拡散モデルである。
論文 参考訳(メタデータ) (2024-12-16T18:52:56Z) - ReCap: Better Gaussian Relighting with Cross-Environment Captures [51.2614945509044]
ReCapは、目に見えない環境で正確な3Dオブジェクトのリライトを行うマルチタスクシステムである。
具体的には、ReCapは共通の属性のセットを共有する複数の照明表現を共同で最適化する。
これにより、相互の材料属性を囲むコヒーレントな照明表現の集合が自然に調和し、様々な物体の外観の共通点と相違点を利用する。
合理化されたシェーディング機能と効果的な後処理とともに、ReCapは、拡張されたリライトベンチマークにおいて、主要な競合企業すべてを上回っている。
論文 参考訳(メタデータ) (2024-12-10T14:15:32Z) - RelitLRM: Generative Relightable Radiance for Large Reconstruction Models [52.672706620003765]
本稿では,新しい照明下での3Dオブジェクトの高品質なガウススプレイティング表現を生成するためのRelitLRMを提案する。
複雑なキャプチャと遅い最適化を必要とする従来の逆レンダリングとは異なり、RelitLRMはフィードフォワードトランスフォーマーベースのモデルを採用している。
スパースビューフィードフォワードRelitLRMは、最先端の密集ビュー最適化ベースラインに対して、競争力のあるリライティング結果を提供する。
論文 参考訳(メタデータ) (2024-10-08T17:40:01Z) - SUNDIAL: 3D Satellite Understanding through Direct, Ambient, and Complex
Lighting Decomposition [17.660328148833134]
SUNDIALは、ニューラルネットワークを用いた衛星画像の3次元再構成のための包括的アプローチである。
我々はこの単一モデルアプローチで衛星シーンの幾何学、照明成分、太陽方向を学習する。
衛星シーンモデリングのための既存のNeRF技術に対するSUNDIALの性能評価を行った。
論文 参考訳(メタデータ) (2023-12-24T02:46:44Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - Physically-Based Editing of Indoor Scene Lighting from a Single Image [106.60252793395104]
本研究では,1つの画像から複雑な室内照明を推定深度と光源セグメンテーションマスクで編集する手法を提案する。
1)シーン反射率とパラメトリックな3D照明を推定する全体的シーン再構成法,2)予測からシーンを再レンダリングするニューラルレンダリングフレームワーク,である。
論文 参考訳(メタデータ) (2022-05-19T06:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。