論文の概要: Active Velocity Estimation using Light Curtains via Self-Supervised
Multi-Armed Bandits
- arxiv url: http://arxiv.org/abs/2302.12597v3
- Date: Mon, 29 May 2023 07:19:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 01:28:45.094040
- Title: Active Velocity Estimation using Light Curtains via Self-Supervised
Multi-Armed Bandits
- Title(参考訳): 自己監督型マルチアーマバンドを用いた光カーテンのアクティブ速度推定
- Authors: Siddharth Ancha, Gaurav Pathak, Ji Zhang, Srinivasa Narasimhan, David
Held
- Abstract要約: 環境を安全に自律的にナビゲートするには、ロボットがどこに障害物があるのか、どのように動くのかを正確に見積もる必要がある。
高価な3Dセンサーを使わずに、より安価で高速で高解像度の代替品である、プログラマブルなライトカーテンを使おう。
我々は,光カーテンによる部分的測定を用いて,粒子フィルタと占有格子に基づく確率的手法を適用し,シーン内の3次元点の位置と速度を明示的に推定する。
本稿では,将来の光カーテン配置を用いて,現在の速度推定値の精度を評価する,自己監督型報酬関数を提案する。
- 参考スコア(独自算出の注目度): 15.080816529975847
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To navigate in an environment safely and autonomously, robots must accurately
estimate where obstacles are and how they move. Instead of using expensive
traditional 3D sensors, we explore the use of a much cheaper, faster, and
higher resolution alternative: programmable light curtains. Light curtains are
a controllable depth sensor that sense only along a surface that the user
selects. We adapt a probabilistic method based on particle filters and
occupancy grids to explicitly estimate the position and velocity of 3D points
in the scene using partial measurements made by light curtains. The central
challenge is to decide where to place the light curtain to accurately perform
this task. We propose multiple curtain placement strategies guided by
maximizing information gain and verifying predicted object locations. Then, we
combine these strategies using an online learning framework. We propose a novel
self-supervised reward function that evaluates the accuracy of current velocity
estimates using future light curtain placements. We use a multi-armed bandit
framework to intelligently switch between placement policies in real time,
outperforming fixed policies. We develop a full-stack navigation system that
uses position and velocity estimates from light curtains for downstream tasks
such as localization, mapping, path-planning, and obstacle avoidance. This work
paves the way for controllable light curtains to accurately, efficiently, and
purposefully perceive and navigate complex and dynamic environments. Project
website: https://siddancha.github.io/projects/active-velocity-estimation/
- Abstract(参考訳): 安全かつ自律的な環境での移動には、ロボットは障害物の位置と動きを正確に推定する必要がある。
従来の3dセンサーを使わずに、より安価で高速で高解像度な代替品、プログラマブルなライトカーテンの使用を探求しています。
光カーテンは、ユーザーが選択した表面に沿ってのみ感知するコントロール可能な深度センサーである。
粒子フィルタと占有格子に基づく確率的手法を適用し,光カーテンによる部分的測定を用いてシーン内の3d点の位置と速度を明示的に推定する。
中心的な課題は、このタスクを正確に行うために、ライトカーテンをどこに配置するかを決めることである。
情報ゲインを最大化し,予測対象位置の検証を行い,複数のカーテン配置戦略を提案する。
次に,これらの戦略をオンライン学習フレームワークを用いて組み合わせる。
将来的な光カーテン配置を用いて電流速度推定の精度を評価する新しい自己教師付報酬関数を提案する。
私たちは、複数腕のbanditフレームワークを使用して、固定されたポリシーを上回って、リアルタイムに配置ポリシーを切り替えます。
ローカライズ,マッピング,パスプランニング,障害物回避といった下流タスクに,ライトカーテンから位置と速度を推定するフルスタックナビゲーションシステムを開発した。
この作業は、複雑でダイナミックな環境を正確に、効率的に、意図的に知覚し、ナビゲートするための制御可能な光カーテンへの道を開きます。
プロジェクトwebサイト: https://siddancha.github.io/projects/active-velocity-estimation/
関連論文リスト
- OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Propagate And Calibrate: Real-time Passive Non-line-of-sight Tracking [84.38335117043907]
本研究では,リレー壁のみを観察することで,見えない部屋を歩いている人を追跡する純粋受動的手法を提案する。
本研究では,リレー壁の映像の非知覚的変化を発掘するため,時間的局所的な動きの伝達に欠かせない特徴として差分フレームを導入する。
提案手法を評価するため,最初の動的受動NLOS追跡データセットであるNLOS-Trackを構築し,公開する。
論文 参考訳(メタデータ) (2023-03-21T12:18:57Z) - Dfferentiable Raycasting for Self-supervised Occupancy Forecasting [52.61762537741392]
自動運転のための運動計画では、エゴ車の周囲の環境が時間とともにどのように進化するかを学ぶ必要がある。
本稿では,自由空間のようなビュー依存表現の自然な代替手段として,幾何学的占有を用いる。
私たちの重要な洞察は、差別化可能なレイキャストを使用して、将来の占有率予測を、将来のLiDARスイープ予測に"レンダリング"することです。
論文 参考訳(メタデータ) (2022-10-04T21:35:21Z) - Efficient Spatial-Temporal Information Fusion for LiDAR-Based 3D Moving
Object Segmentation [23.666607237164186]
本稿では,LiDAR-MOSの性能向上のために,空間時空間情報とLiDARスキャンの異なる表現モダリティを併用した新しいディープニューラルネットワークを提案する。
具体的には、まず、空間情報と時間情報とを別々に扱うために、レンジ画像に基づくデュアルブランチ構造を用いる。
また、3次元スパース畳み込みによるポイントリファインメントモジュールを使用して、LiDAR範囲の画像とポイントクラウド表現の両方からの情報を融合する。
論文 参考訳(メタデータ) (2022-07-05T17:59:17Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Bandit Quickest Changepoint Detection [55.855465482260165]
すべてのセンサの継続的な監視は、リソースの制約のためにコストがかかる可能性がある。
有限パラメータ化確率分布の一般クラスに対する検出遅延に基づく情報理論の下界を導出する。
本稿では,異なる検知オプションの探索と質問行動の活用をシームレスに両立させる,計算効率のよいオンラインセンシング手法を提案する。
論文 参考訳(メタデータ) (2021-07-22T07:25:35Z) - Active Safety Envelopes using Light Curtains with Probabilistic
Guarantees [27.5625804389892]
未知の環境をナビゲートするには、ロボットはダイナミックな障害を正確に知覚する必要がある。
LiDARセンサーでシーンの奥行きを直接測定する代わりに、より安価で高解像度のセンサー、プログラマブルなライトカーテンを使っています。
私たちは光カーテンを使ってシーンの安全封筒を推定します。
論文 参考訳(メタデータ) (2021-07-08T17:46:05Z) - Deep Learning based Virtual Point Tracking for Real-Time Target-less
Dynamic Displacement Measurement in Railway Applications [0.0]
ディープラーニング技術とドメイン知識を組み込んだリアルタイムターゲットレス動的変位測定のための仮想ポイントトラッキングを提案します。
そこで本研究では, 運転中にレールの車輪の水平変位を計測した鉄道への適用例を示す。
論文 参考訳(メタデータ) (2021-01-17T16:19:47Z) - StrObe: Streaming Object Detection from LiDAR Packets [73.27333924964306]
ローリングシャッターのLiDARはパケットのストリームとして出力され、それぞれ360degのカバレッジのセクターをカバーする。
現代の認識アルゴリズムは、データを処理する前に全スイープが構築されるのを待つ。
本稿では,LiDARパケットを取り込み,全スイープが構築されるのを待たずに検出ストリームを出力することで,レイテンシを最小化する新しいアプローチであるStrObeを提案する。
論文 参考訳(メタデータ) (2020-11-12T14:57:44Z) - Active Perception using Light Curtains for Autonomous Driving [31.850820506272846]
光カーテンを用いた3次元物体認識手法を提案する。
我々は、ディープラーニングに基づく3Dポイントクラウド検出器の予測不確実性を利用して、アクティブな知覚を誘導する。
我々は、不確実性誘導光カーテンを順次配置することにより、シーン内の物体を検出するために3D検出器をどのように訓練するかを示す。
論文 参考訳(メタデータ) (2020-08-05T15:38:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。