論文の概要: Task-Driven Implicit Representations for Automated Design of LiDAR Systems
- arxiv url: http://arxiv.org/abs/2505.22344v1
- Date: Wed, 28 May 2025 13:27:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.626695
- Title: Task-Driven Implicit Representations for Automated Design of LiDAR Systems
- Title(参考訳): LiDARシステムの自動設計のためのタスク駆動型命令表現
- Authors: Nikhil Behari, Aaron Young, Akshat Dave, Ramesh Raskar,
- Abstract要約: 本稿では,任意の制約下でのタスク駆動型LiDARシステム設計のためのフレームワークを提案する。
連続した6次元設計空間におけるLiDARの構成を表現し、フローベース生成モデルを用いてタスク固有の暗黙の密度を学習する。
次に、センサを6次元空間のパラメトリック分布としてモデル化し、予測最大化を用いて学習した暗黙密度に適合させることにより、新しいLiDARシステムを合成する。
我々は,顔スキャン,ロボットトラッキング,物体検出などの現実のアプリケーションに触発されたLiDARシステム設計を実現することで,3次元視覚における多様なタスクに対する本手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 11.93375449996958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Imaging system design is a complex, time-consuming, and largely manual process; LiDAR design, ubiquitous in mobile devices, autonomous vehicles, and aerial imaging platforms, adds further complexity through unique spatial and temporal sampling requirements. In this work, we propose a framework for automated, task-driven LiDAR system design under arbitrary constraints. To achieve this, we represent LiDAR configurations in a continuous six-dimensional design space and learn task-specific implicit densities in this space via flow-based generative modeling. We then synthesize new LiDAR systems by modeling sensors as parametric distributions in 6D space and fitting these distributions to our learned implicit density using expectation-maximization, enabling efficient, constraint-aware LiDAR system design. We validate our method on diverse tasks in 3D vision, enabling automated LiDAR system design across real-world-inspired applications in face scanning, robotic tracking, and object detection.
- Abstract(参考訳): LiDAR設計は、モバイルデバイス、自動運転車、および空中イメージングプラットフォームにおいてユビキタスであり、独自の空間的および時間的サンプリング要求によってさらに複雑になる。
本研究では,任意の制約下でのタスク駆動型LiDARシステム設計のためのフレームワークを提案する。
これを実現するために、連続した6次元設計空間におけるLiDAR構成を表現し、フローベース生成モデルを用いてタスク固有の暗黙の密度を学習する。
次に,センサを6次元空間のパラメトリック分布としてモデル化して新しいLiDARシステムを合成し,これらの分布を予測最大化を用いて学習した暗黙密度に適合させて,効率的な制約対応LiDARシステム設計を可能にする。
我々は,顔スキャン,ロボットトラッキング,物体検出などの現実のアプリケーションに触発されたLiDARシステム設計を実現することで,3次元視覚における多様なタスクに対する本手法の有効性を検証した。
関連論文リスト
- LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Enhancing Autonomous Navigation by Imaging Hidden Objects using Single-Photon LiDAR [12.183773707869069]
単一光子LiDARを用いたNon-Line-of-Sight(NLOS)センシングによる視認性の向上と自律ナビゲーションの向上を目的とした新しいアプローチを提案する。
本手法は,マルチバウンス光情報を利用することで,移動ロボットを「隅々まで見る」ことを可能にする。
論文 参考訳(メタデータ) (2024-10-04T16:03:13Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Tightly-Coupled LiDAR-Visual SLAM Based on Geometric Features for Mobile
Agents [43.137917788594926]
幾何学的特徴に基づく密結合LiDAR視覚SLAMを提案する。
視覚サブシステムによって検出された全ラインセグメントは、LiDARサブシステムの制限を克服する。
本システムは,現在最先端のマルチモーダル手法と比較して,より正確でロバストなポーズ推定を実現する。
論文 参考訳(メタデータ) (2023-07-15T10:06:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。