論文の概要: ClaraVid: A Holistic Scene Reconstruction Benchmark From Aerial Perspective With Delentropy-Based Complexity Profiling
- arxiv url: http://arxiv.org/abs/2503.17856v1
- Date: Sat, 22 Mar 2025 20:26:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:36:42.739868
- Title: ClaraVid: A Holistic Scene Reconstruction Benchmark From Aerial Perspective With Delentropy-Based Complexity Profiling
- Title(参考訳): ClaraVid:delentropy-based Complexity Profilingを用いた航空的視点からのホロスティックなシーン再構築ベンチマーク
- Authors: Radu Beche, Sergiu Nedevschi,
- Abstract要約: 既存のデータセットの制限を克服するために特別に設計された合成空中データセットであるClaraVidを紹介する。
4032x3024で撮影された16,917枚の高解像度画像と、さまざまな風景の様々な視点から合成されたクララヴィッドは、密集した深度マップ、汎視的セグメンテーション、スパースポイント雲、動的物体マスクを提供する。
神経再建をさらに進めるために,DSP(Delentropic Scene Profile)を導入する。
- 参考スコア(独自算出の注目度): 5.6168844664788855
- License:
- Abstract: The development of aerial holistic scene understanding algorithms is hindered by the scarcity of comprehensive datasets that enable both semantic and geometric reconstruction. While synthetic datasets offer an alternative, existing options exhibit task-specific limitations, unrealistic scene compositions, and rendering artifacts that compromise real-world applicability. We introduce ClaraVid, a synthetic aerial dataset specifically designed to overcome these limitations. Comprising 16,917 high-resolution images captured at 4032x3024 from multiple viewpoints across diverse landscapes, ClaraVid provides dense depth maps, panoptic segmentation, sparse point clouds, and dynamic object masks, while mitigating common rendering artifacts. To further advance neural reconstruction, we introduce the Delentropic Scene Profile (DSP), a novel complexity metric derived from differential entropy analysis, designed to quantitatively assess scene difficulty and inform reconstruction tasks. Utilizing DSP, we systematically benchmark neural reconstruction methods, uncovering a consistent, measurable correlation between scene complexity and reconstruction accuracy. Empirical results indicate that higher delentropy strongly correlates with increased reconstruction errors, validating DSP as a reliable complexity prior. Currently under review, upon acceptance the data and code will be available at $\href{https://rdbch.github.io/claravid}{rdbch.github.io/ClaraVid}$.
- Abstract(参考訳): 航空全体論的シーン理解アルゴリズムの開発は、意味的および幾何学的再構築を可能にする包括的データセットの不足によって妨げられている。
合成データセットは代替手段を提供するが、既存のオプションはタスク固有の制限、非現実的なシーン構成、現実の応用性を損なうアーティファクトのレンダリングを示す。
これらの制限を克服するために特別に設計された合成空中データセットであるClaraVidを紹介した。
ClaraVidは4032x3024で撮影された16,917枚の高解像度画像を、さまざまな風景のさまざまな視点から分析し、密度の深い深度マップ、パノスコープのセグメンテーション、スパースポイント雲、ダイナミックオブジェクトマスクを提供しながら、一般的なレンダリングアーティファクトを緩和する。
そこで我々は,DSP(Delentropic Scene Profile)を導入する。DSP(Delentropic Scene Profile)は,シーンの難易度を定量的に評価し,再現作業に通知する,差分エントロピー分析から導かれる新しい複雑性指標である。
DSPを用いて,シーンの複雑さと再現精度の一貫性と測定可能な相関関係を明らかにする。
実験の結果, 高いデレントロピーは再建誤差の増加と強く相関し, DSPを従来より信頼性の高い複雑性として検証した。
現在レビュー中のデータとコードは、$\href{https://rdbch.github.io/claravid}{rdbch.github.io/ClaraVid}$で入手できる。
関連論文リスト
- FOCUS - Multi-View Foot Reconstruction From Synthetically Trained Dense Correspondences [23.644116579294547]
人足再建の具体的な症例について検討する。
マルチビューRGB画像からリッチなピクセル単位の幾何学的手がかりを抽出する。
本研究は, 現状の再建の質を, 数点の視点で達成できることを実証する。
論文 参考訳(メタデータ) (2025-02-10T11:36:45Z) - SiLVR: Scalable Lidar-Visual Radiance Field Reconstruction with Uncertainty Quantification [0.0]
本稿では,ライダーと視覚データを融合したNeRFを用いた大規模再構成システムを提案する。
我々のシステムは、ライダーを付加的に組み込むために最先端のNeRF表現を採用する。
ロボット搭載型とハンドヘルド型の両方のスキャニング実験において,マルチカメラ・ライダーセンサ・スイートを用いた再構築システムを実証した。
論文 参考訳(メタデータ) (2025-02-04T19:00:49Z) - Total-Decom: Decomposed 3D Scene Reconstruction with Minimal Interaction [51.3632308129838]
人間のインタラクションを最小限に抑えた3次元再構成法であるTotal-Decomを提案する。
提案手法は,Segment Anything Model (SAM) とハイブリッド型暗黙的なニューラルサーフェス表現をシームレスに統合し,メッシュベースの領域成長技術を用いて正確な3次元オブジェクト分解を行う。
提案手法をベンチマークデータセット上で広範囲に評価し,アニメーションやシーン編集などの下流アプリケーションの可能性を示す。
論文 参考訳(メタデータ) (2024-03-28T11:12:33Z) - AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - Point Scene Understanding via Disentangled Instance Mesh Reconstruction [21.92736190195887]
本稿では,効率的なポイントシーン理解のために,aDisentangled Instance Mesh Reconstruction (DIMR) フレームワークを提案する。
セグメント化ベースのバックボーンは、偽陽性オブジェクトの提案を減らすために適用される。
メッシュを意識した潜在コード空間を活用して、シェイプコンプリートとメッシュ生成のプロセスを切り離します。
論文 参考訳(メタデータ) (2022-03-31T06:36:07Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - SCFusion: Real-time Incremental Scene Reconstruction with Semantic
Completion [86.77318031029404]
本研究では,シーン再構成とセマンティックシーン補完を段階的かつリアルタイムに共同で行うフレームワークを提案する。
我々のフレームワークは、3Dグローバルモデルでセマンティックコンプリートを正確かつ効率的に融合させるために、占有マップを処理し、ボクセル状態を活用するように設計された新しいニューラルアーキテクチャに依存している。
論文 参考訳(メタデータ) (2020-10-26T15:31:52Z) - 3D Dense Geometry-Guided Facial Expression Synthesis by Adversarial
Learning [54.24887282693925]
本稿では,3次元密度(深度,表面正規度)情報を表現操作に用いる新しいフレームワークを提案する。
既製の最先端3D再構成モデルを用いて深度を推定し,大規模RGB-Depthデータセットを作成する。
実験により,提案手法は競争ベースラインと既存の芸術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-09-30T17:12:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。