論文の概要: ParkingTwin: Training-Free Streaming 3D Reconstruction for Parking-Lot Digital Twins
- arxiv url: http://arxiv.org/abs/2601.13706v1
- Date: Tue, 20 Jan 2026 08:03:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.215225
- Title: ParkingTwin: Training-Free Streaming 3D Reconstruction for Parking-Lot Digital Twins
- Title(参考訳): ParkingTwin:Parking-Lot Digital Twinsのためのトレーニングフリーストリーミング3D再構成
- Authors: Xinhao Liu, Yu Wang, Xiansheng Guo, Gordon Owusu Boateng, Yu Cao, Haonan Si, Xingchen Guo, Nirwan Ansari,
- Abstract要約: ParkingTwinは、オンラインストリーミング3D再構築のためのトレーニング不要で軽量なシステムである。
エントリーレベルのGTX 1660では30FPS以上で動作する。
- 参考スコア(独自算出の注目度): 8.681741531117366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-fidelity parking-lot digital twins provide essential priors for path planning, collision checking, and perception validation in Automated Valet Parking (AVP). Yet robot-oriented reconstruction faces a trilemma: sparse forward-facing views cause weak parallax and ill-posed geometry; dynamic occlusions and extreme lighting hinder stable texture fusion; and neural rendering typically needs expensive offline optimization, violating edge-side streaming constraints. We propose ParkingTwin, a training-free, lightweight system for online streaming 3D reconstruction. First, OSM-prior-driven geometric construction uses OpenStreetMap semantic topology to directly generate a metric-consistent TSDF, replacing blind geometric search with deterministic mapping and avoiding costly optimization. Second, geometry-aware dynamic filtering employs a quad-modal constraint field (normal/height/depth consistency) to reject moving vehicles and transient occlusions in real time. Third, illumination-robust fusion in CIELAB decouples luminance and chromaticity via adaptive L-channel weighting and depth-gradient suppression, reducing seams under abrupt lighting changes. ParkingTwin runs at 30+ FPS on an entry-level GTX 1660. On a 68,000 m^2 real-world dataset, it achieves SSIM 0.87 (+16.0%), delivers about 15x end-to-end speedup, and reduces GPU memory by 83.3% compared with state-of-the-art 3D Gaussian Splatting (3DGS) that typically requires high-end GPUs (RTX 4090D). The system outputs explicit triangle meshes compatible with Unity/Unreal digital-twin pipelines. Project page: https://mihoutao-liu.github.io/ParkingTwin/
- Abstract(参考訳): 自動駐車駐車(AVP)における経路計画、衝突チェック、知覚検証において、高忠実度駐車制御のディジタル双生児は必須の先駆者となる。
しかし、ロボット指向の再構築は、トリレンマに直面している: 粗い前方視界は、視差と不測の幾何学を弱める; 動的閉塞と極端な照明は、安定したテクスチャ融合を妨げる; ニューラルレンダリングは通常、高価なオフライン最適化を必要とし、エッジ側ストリーミングの制約に違反している。
オンラインストリーミング3D再構成のためのトレーニング不要軽量システムであるParkingTwinを提案する。
第一に、OSMが先導した幾何学的構成では、OpenStreetMapセマンティックトポロジを使用して、メートル法に一貫性のあるTSDFを直接生成し、視覚幾何学的探索を決定論的マッピングに置き換え、コストのかかる最適化を避ける。
第二に、幾何学を意識した動的フィルタリングはクアッドモードの制約場(正規/高さ/深さの整合性)を用いて、移動車両や過渡閉塞をリアルタイムで拒否する。
第3に、CIELABにおける発光-腐食融合は、適応的なLチャネル重み付けと深さ勾配抑制により輝度と色度を分離し、急激な照明変化下でのシームを減少させる。
ParkingTwinはエントリーレベルのGTX 1660で30FPS以上で動作する。
68,000 m^2 の実世界のデータセットでは、SSIM 0.87 (+16.0%)を達成し、約15倍のエンドツーエンドのスピードアップを実現し、最先端のGPU(RTX 4090D)を必要とする最先端の3Dガウススプラッティング(3DGS)と比較してGPUメモリを83.3%削減する。
このシステムは、Unity/Unrealデジタルツインパイプラインと互換性のある明確な三角形メッシュを出力する。
プロジェクトページ:https://mihoutao-liu.github.io/ParkingTwin/
関連論文リスト
- AutoScape: Geometry-Consistent Long-Horizon Scene Generation [69.2451355181344]
AutoScapeは長距離走行シーン生成フレームワークである。
20秒以上のリアルで幾何学的に一貫したドライビングビデオを生成する。
ロングホライゾンのFIDとFVDのスコアは、それぞれ48.6%、FVDは43.0%向上している。
論文 参考訳(メタデータ) (2025-10-23T16:44:34Z) - RAP: 3D Rasterization Augmented End-to-End Planning [104.52778241744522]
エンド・ツー・エンドの列車政策の模擬学習は、専門家によるデモンストレーションでのみ行われる。
アノテーション付きプリミティブの軽量化により、コストのかかるレンダリングを置き換える3Dラスタライゼーションを提案する。
RAPは最先端のクローズドループとロングテールロバスト性を実現し、4つの主要なベンチマークで第1位となった。
論文 参考訳(メタデータ) (2025-10-05T19:31:24Z) - Trans${^2}$-CBCT: A Dual-Transformer Framework for Sparse-View CBCT Reconstruction [10.744510913722817]
コーンビームCT(CBCT)は、少数のX線プロジェクションビューしか使用していないため、放射線線量が少ないほど高速なスキャンが可能であるが、重度のアンダーサンプリングの結果、強いアーティファクトと空間的カバレッジが低下する。
まず、従来のUNet/ResNetエンコーダをハイブリッドCNN-TransformerモデルであるTransUNetに置き換える。
LUNA16 と ToothFairy の実験では、6 から 10 のビューで一貫した利得を示し,CNN-Transformer 特徴と特異なビュー CBCT 再構成のための点ベース幾何推論の有効性を検証した。
論文 参考訳(メタデータ) (2025-06-20T18:45:12Z) - StableGS: A Floater-Free Framework for 3D Gaussian Splatting [9.935869165752283]
3D Gaussian Splatting(3DGS)の復元は、その幾何学的および視覚的忠実さを低下させるスタバボーンフローター(stbborn floater)のアーティファクトに悩まされている。
最終的な外観レンダリングから幾何正規化を分離する新しいフレームワークであるStableGSを提案する。
複数のベンチマークの実験では、StableGSはフローターを除去するだけでなく、一般的なぼやけたアーチファクトのトレードオフも解決している。
論文 参考訳(メタデータ) (2025-03-24T09:02:51Z) - Delta-Triplane Transformers as Occupancy World Models [57.16979927973973]
Occupancy World Models (OWMs) は、知的運動計画を支援するために、環境の3次元ボキセル化表現を通して将来のシーンを予測することを目的としている。
本稿では,自律運転のための新しい4DOWMであるDelta-Triplane Transformers (DTT)を提案する。
DTTは1.44$times$ speedup (26 FPS)を最先端に提供し、平均IoUを30.85に改善し、平均絶対計画誤差を1.0mに下げる。
論文 参考訳(メタデータ) (2025-03-10T13:50:23Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - Ada3D : Exploiting the Spatial Redundancy with Adaptive Inference for
Efficient 3D Object Detection [19.321076175294902]
ボクセルに基づく手法は、自律運転における3次元物体検出の最先端性能を実現している。
それらの計算とメモリの大幅なコストは、資源に制約のある車両に適用する上での課題となる。
本稿では,入力レベルの空間冗長性を利用した適応型推論フレームワークAda3Dを提案する。
論文 参考訳(メタデータ) (2023-07-17T02:58:51Z) - PersFormer: 3D Lane Detection via Perspective Transformer and the
OpenLane Benchmark [109.03773439461615]
PersFormerは、新しいトランスフォーマーベースの空間特徴変換モジュールを備えた、エンドツーエンドのモノクル3Dレーン検出器である。
高品質なアノテーションとシナリオの多様性を備えたOpenLaneと呼ばれる,最初の大規模な3Dレーンデータセットの1つをリリースしました。
論文 参考訳(メタデータ) (2022-03-21T16:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。