論文の概要: RealX3D: A Physically-Degraded 3D Benchmark for Multi-view Visual Restoration and Reconstruction
- arxiv url: http://arxiv.org/abs/2512.23437v1
- Date: Mon, 29 Dec 2025 12:57:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.502898
- Title: RealX3D: A Physically-Degraded 3D Benchmark for Multi-view Visual Restoration and Reconstruction
- Title(参考訳): RealX3D:多視点視力回復と再建のための物理的に劣化した3Dベンチマーク
- Authors: Shuhong Liu, Chenyu Bao, Ziteng Cui, Yun Liu, Xuangeng Chu, Lin Gu, Marcos V. Conde, Ryo Umagami, Tomohiro Hashimoto, Zijian Hu, Tianhan Xu, Yuan Gan, Yusuke Kurose, Tatsuya Harada,
- Abstract要約: RealX3Dグループは、照明、散乱、ぼかしを含む4つのファミリーに腐敗し、それぞれを複数の重度レベルで捕獲する。
それぞれのシーンには高解像度キャプチャ、RAW画像、高密度レーザースキャンが含まれており、そこから世界規模のメッシュとメートル法深度を導き出す。
- 参考スコア(独自算出の注目度): 51.07270086169647
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce RealX3D, a real-capture benchmark for multi-view visual restoration and 3D reconstruction under diverse physical degradations. RealX3D groups corruptions into four families, including illumination, scattering, occlusion, and blurring, and captures each at multiple severity levels using a unified acquisition protocol that yields pixel-aligned LQ/GT views. Each scene includes high-resolution capture, RAW images, and dense laser scans, from which we derive world-scale meshes and metric depth. Benchmarking a broad range of optimization-based and feed-forward methods shows substantial degradation in reconstruction quality under physical corruptions, underscoring the fragility of current multi-view pipelines in real-world challenging environments.
- Abstract(参考訳): 本稿では,多視点視覚修復と3次元再構成のための実撮ベンチマークであるRealX3Dを紹介する。
RealX3Dグループは、照明、散乱、オクルージョン、ぼかしを含む4つのファミリーに分類し、それぞれを複数の重度レベルでキャプチャする。
それぞれのシーンには高解像度キャプチャ、RAW画像、高密度レーザースキャンが含まれており、そこから世界規模メッシュとメートル法深度を導出する。
広範囲の最適化ベースおよびフィードフォワード手法のベンチマークでは、物理的な汚職下での再構築品質の大幅な低下が示され、現在のマルチビューパイプラインの現実的な挑戦環境における脆弱さが強調されている。
関連論文リスト
- MapAnything: Universal Feed-Forward Metric 3D Reconstruction [63.79151976126576]
MapAnythingは1つ以上の画像を取り込み、カメラの内在性、ポーズ、深さ、部分的な再構築など、任意の幾何学的入力を行う。
そして、メーター3Dシーンの幾何学とカメラを直接補強する。
MapAnythingは、単一のフィードフォワードパスで幅広い3Dビジョンタスクに対処する。
論文 参考訳(メタデータ) (2025-09-16T18:00:14Z) - RobustGS: Unified Boosting of Feedforward 3D Gaussian Splatting under Low-Quality Conditions [67.48495052903534]
本稿では,汎用的で効率的なマルチビュー機能拡張モジュールRobustGSを提案する。
各種の有害撮像条件下でのフィードフォワード3DGS法のロバスト性を大幅に向上させる。
RobustGSモジュールはプラグイン・アンド・プレイ方式で既存の事前訓練パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2025-08-05T04:50:29Z) - R3eVision: A Survey on Robust Rendering, Restoration, and Enhancement for 3D Low-Level Vision [9.961452710097685]
3次元低レベルビジョン(3D LLV)は、古典的な2次元低レベルビジョンタスクを3次元空間領域に拡張する。
LLVをニューラルレンダリングフレームワークに統合する最近の手法は、有害な条件下で高忠実度3D再構成を可能にする方法を説明するために分類される。
本研究は、3D LLVを実環境におけるロバストな3Dコンテンツ生成とシーンレベルの再構築の基本的な方向性として位置づける。
論文 参考訳(メタデータ) (2025-06-19T12:25:46Z) - MUSt3R: Multi-view Network for Stereo 3D Reconstruction [11.61182864709518]
本稿では,DUSt3Rのペアから複数のビューへの拡張を提案する。
計算複雑性を低減できる多層メモリ機構でモデルを拡張します。
このフレームワークは、オフラインとオンラインの両方で3D再構成を実行するように設計されているため、SfMとビジュアルSLAMシナリオにシームレスに適用できる。
論文 参考訳(メタデータ) (2025-03-03T15:36:07Z) - Direct and Explicit 3D Generation from a Single Image [25.207277983430608]
マルチビュー2次元深度画像とRGB画像を用いて表面形状とテクスチャを直接生成する新しいフレームワークを提案する。
画素レベルの多視点整合性を実現するために,エピポーラの注意を潜時から画素間デコーダに組み込む。
生成した深度画素を3次元空間にバックプロジェクションすることにより、構造化された3次元表現を生成する。
論文 参考訳(メタデータ) (2024-11-17T03:14:50Z) - 3DFIRES: Few Image 3D REconstruction for Scenes with Hidden Surface [8.824340350342512]
3DFIRESは、ポーズ画像からシーンレベルの3D再構成を行う新しいシステムである。
単一視点再構成法の有効性を1つの入力で示す。
論文 参考訳(メタデータ) (2024-03-13T17:59:50Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。