論文の概要: Active Perception using Light Curtains for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2008.02191v1
- Date: Wed, 5 Aug 2020 15:38:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 18:03:01.741947
- Title: Active Perception using Light Curtains for Autonomous Driving
- Title(参考訳): 光カーテンを用いた自律走行用アクティブ知覚
- Authors: Siddharth Ancha, Yaadhav Raaj, Peiyun Hu, Srinivasa G. Narasimhan,
David Held
- Abstract要約: 光カーテンを用いた3次元物体認識手法を提案する。
我々は、ディープラーニングに基づく3Dポイントクラウド検出器の予測不確実性を利用して、アクティブな知覚を誘導する。
我々は、不確実性誘導光カーテンを順次配置することにより、シーン内の物体を検出するために3D検出器をどのように訓練するかを示す。
- 参考スコア(独自算出の注目度): 31.850820506272846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most real-world 3D sensors such as LiDARs perform fixed scans of the entire
environment, while being decoupled from the recognition system that processes
the sensor data. In this work, we propose a method for 3D object recognition
using light curtains, a resource-efficient controllable sensor that measures
depth at user-specified locations in the environment. Crucially, we propose
using prediction uncertainty of a deep learning based 3D point cloud detector
to guide active perception. Given a neural network's uncertainty, we derive an
optimization objective to place light curtains using the principle of
maximizing information gain. Then, we develop a novel and efficient
optimization algorithm to maximize this objective by encoding the physical
constraints of the device into a constraint graph and optimizing with dynamic
programming. We show how a 3D detector can be trained to detect objects in a
scene by sequentially placing uncertainty-guided light curtains to successively
improve detection accuracy. Code and details can be found on the project
webpage: http://siddancha.github.io/projects/active-perception-light-curtains.
- Abstract(参考訳): lidarのような現実世界の3dセンサーのほとんどは、センサーデータを処理する認識システムから切り離されながら、環境全体の固定的なスキャンを行う。
本研究では,資源効率の良い制御可能なセンサである光カーテンを用いた3次元物体認識手法を提案する。
そこで本研究では,ディープラーニングを用いた3dポイントクラウド検出器の予測不確実性を用いて,能動的知覚を導出する。
ニューラルネットワークの不確実性を考えると、情報ゲインを最大化する原理を用いて光カーテンを配置する最適化目標を導出する。
そこで我々は,制約グラフにデバイスの物理的制約を符号化し,動的プログラミングで最適化することで,この目的を最大化する,新しい効率的な最適化アルゴリズムを開発した。
本研究では,不確実性誘導光カーテンを順次配置し,連続的に検出精度を向上させることで,シーン内の物体を検出する3D検出器の訓練方法を示す。
コードと詳細はプロジェクトのwebページにある。 http://siddancha.github.io/projects/active-perception-light-curtains。
関連論文リスト
- Robustness-Aware 3D Object Detection in Autonomous Driving: A Review and Outlook [19.539295469044813]
本研究は,現実シナリオ下での知覚システム評価において,精度と遅延とともに頑健性の重要性を強調した。
我々の研究は、カメラのみ、LiDARのみ、マルチモーダルな3Dオブジェクト検出アルゴリズムを広範囲に調査し、精度、レイテンシ、堅牢性の間のトレードオフを徹底的に評価する。
これらのうち、多モード3D検出手法は優れた堅牢性を示し、新しい分類法を導入し、文献を改良して明瞭性を高める。
論文 参考訳(メタデータ) (2024-01-12T12:35:45Z) - LS-VOS: Identifying Outliers in 3D Object Detections Using Latent Space
Virtual Outlier Synthesis [10.920640666237833]
LiDARベースの3Dオブジェクト検出器は、自動運転アプリケーションにおいて前例のないスピードと精度を達成した。
それらはしばしば、信頼度の高い予測や、実際のオブジェクトが存在しないリターン検出に偏っている。
LS-VOSは,3次元物体検出における外れ値の同定を行うフレームワークである。
論文 参考訳(メタデータ) (2023-10-02T07:44:26Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - View-to-Label: Multi-View Consistency for Self-Supervised 3D Object
Detection [46.077668660248534]
本稿では,RGBシーケンスのみから,自己監督型3Dオブジェクト検出を行う手法を提案する。
KITTI 3Dデータセットを用いた実験では,最先端の自己管理手法と同等の性能を示した。
論文 参考訳(メタデータ) (2023-05-29T09:30:39Z) - Active Velocity Estimation using Light Curtains via Self-Supervised
Multi-Armed Bandits [15.080816529975847]
環境を安全に自律的にナビゲートするには、ロボットがどこに障害物があるのか、どのように動くのかを正確に見積もる必要がある。
高価な3Dセンサーを使わずに、より安価で高速で高解像度の代替品である、プログラマブルなライトカーテンを使おう。
我々は,光カーテンによる部分的測定を用いて,粒子フィルタと占有格子に基づく確率的手法を適用し,シーン内の3次元点の位置と速度を明示的に推定する。
本稿では,将来の光カーテン配置を用いて,現在の速度推定値の精度を評価する,自己監督型報酬関数を提案する。
論文 参考訳(メタデータ) (2023-02-24T12:19:45Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。