論文の概要: Learning a Compact State Representation for Navigation Tasks by
Autoencoding 2D-Lidar Scans
- arxiv url: http://arxiv.org/abs/2102.02127v1
- Date: Wed, 3 Feb 2021 16:10:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-04 17:06:56.782475
- Title: Learning a Compact State Representation for Navigation Tasks by
Autoencoding 2D-Lidar Scans
- Title(参考訳): 2D-Lidarスキャンの自動符号化によるナビゲーションタスクのコンパクト状態表現の学習
- Authors: Christopher Gebauer and Maren Bennewitz
- Abstract要約: ナビゲーションタスクにおける強化学習のための2次元ライダースキャンのコンパクト表現を生成する。
特に,連続走査,特にエゴモーションの関係を,メモリモデルを適用して考察する。
実験により,ライダーデータを高度に圧縮し,潜伏空間の有意義な分布を維持し,時間依存情報を組み込む手法の有効性が示された。
- 参考スコア(独自算出の注目度): 7.99536002595393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we address the problem of generating a compact representation
of 2D-lidar scans for reinforcement learning in navigation tasks. By now only
little work focuses on the compactness of the provided state, which is a
necessary condition to successfully and efficiently train a navigation agent.
Our approach works in three stages. First, we propose a novel preprocessing of
the distance measurements and compute a local, egocentric, binary grid map
based on the current range measurements. We then autoencode the local map using
a variational autoencoder, where the latent space serves as state
representation. An important key for a compact and, at the same time,
meaningful representation is the degree of disentanglement, which describes the
correlation between each latent dimension. Therefore, we finally apply
state-of-the-art disentangling methods to improve the representation power.
Furthermore, we investige the possibilities of incorporating time-dependent
information into the latent space. In particular, we incorporate the relation
of consecutive scans, especially ego-motion, by applying a memory model. We
implemented our approach in python using tensorflow. Our datasets are simulated
with pybullet as well as recorded using a slamtec rplidar A3. The experiments
show the capability of our approach to highly compress lidar data, maintain a
meaningful distribution of the latent space, and even incorporate time-depended
information.
- Abstract(参考訳): 本稿では,ナビゲーションタスクにおける強化学習のための2次元ライダースキャンのコンパクト表現生成の問題に対処する。
現時点では、ナビゲーションエージェントを効果的かつ効率的に訓練するのに必要な条件である提供された状態のコンパクト性にのみ焦点をあてる作業は少ない。
私たちのアプローチは3段階で機能します。
まず, 距離測定の新たな前処理を提案し, 局所的, エゴセントリックな, バイナリグリッドマップを現在の距離計測に基づいて計算する。
次に、潜在空間が状態表現として機能する変分オートエンコーダを使用してローカルマップを自動エンコードする。
コンパクトかつ同時に有意義な表現のための重要な鍵は、各潜在次元間の相関を記述する非絡み合いの度合いである。
そこで我々は最後に,表現力を向上させるために最先端の解離手法を適用した。
さらに、時間依存的な情報を潜在空間に組み込む可能性を探ります。
特に,連続走査,特にエゴモーションの関係を,メモリモデルを適用して考察する。
tensorflowを使ってpythonでこのアプローチを実装しました。
我々のデータセットはpybulletでシミュレートされ、slamtec rplidar A3で記録されます。
実験では,lidarデータを高度に圧縮し,潜在空間の有意義な分布を維持し,時間に依存する情報も取り入れる手法の有用性を示す。
関連論文リスト
- UnLoc: A Universal Localization Method for Autonomous Vehicles using
LiDAR, Radar and/or Camera Input [51.150605800173366]
UnLocは、全ての気象条件におけるマルチセンサー入力によるローカライズのための、新しい統一型ニューラルネットワークアプローチである。
本手法は,Oxford Radar RobotCar,Apollo SouthBay,Perth-WAの各データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-07-03T04:10:55Z) - A Unified BEV Model for Joint Learning of 3D Local Features and Overlap
Estimation [12.499361832561634]
本稿では,3次元局所特徴の同時学習と重なり推定のための統合鳥眼ビュー(BEV)モデルを提案する。
提案手法は,特に重複の少ないシーンにおいて,重複予測における既存手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-28T12:01:16Z) - Asynchronously Trained Distributed Topographic Maps [0.0]
分散トレーニングによって特徴マップを生成するために,N$の自律ユニットを用いたアルゴリズムを提案する。
単位の自律性は、分散探索とカスケード駆動の重み更新スキームを組み合わせることで、時間と空間のスパース相互作用によって達成される。
論文 参考訳(メタデータ) (2023-01-20T01:15:56Z) - Learning Implicit Feature Alignment Function for Semantic Segmentation [51.36809814890326]
Implicit Feature Alignment Function (IFA)は、暗黙の神経表現の急速に拡大するトピックにインスパイアされている。
IFAは機能マップを異なるレベルで暗黙的に整列し、任意の解像度でセグメンテーションマップを生成することができることを示す。
提案手法は,様々なアーキテクチャの改善と組み合わせて,一般的なベンチマークにおける最先端の精度のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-06-17T09:40:14Z) - Focal Sparse Convolutional Networks for 3D Object Detection [121.45950754511021]
我々はスパースCNNの能力を高めるために2つの新しいモジュールを導入する。
焦点スパース・コンボリューション(Focals Conv)であり、焦点スパース・コンボリューションの多様変種である。
スパース・コンボリューションにおける空間的に学習可能な空間空間性は,高度な3次元物体検出に不可欠であることを示す。
論文 参考訳(メタデータ) (2022-04-26T17:34:10Z) - Energy networks for state estimation with random sensors using sparse
labels [0.0]
本稿では,スパースラベルから学習可能な暗黙の最適化層と物理に基づく損失関数を用いた手法を提案する。
この手法に基づいて、空間における離散的および連続的な予測のための2つのモデルを示す。
論文 参考訳(メタデータ) (2022-03-12T15:15:38Z) - IterMVS: Iterative Probability Estimation for Efficient Multi-View
Stereo [71.84742490020611]
IterMVSは高解像度マルチビューステレオのための新しいデータ駆動方式である。
隠れ状態の深さの画素単位の確率分布を符号化するGRUに基づく新しい推定器を提案する。
DTU, タンク&テンプル, ETH3Dにおける本手法の有効性と有効性を検証する。
論文 参考訳(メタデータ) (2021-12-09T18:58:02Z) - Learning Optical Flow from a Few Matches [67.83633948984954]
密な相関体積表現は冗長であり、その中の要素のほんの一部で正確なフロー推定が達成できることを示した。
実験により,高い精度を維持しつつ計算コストとメモリ使用量を大幅に削減できることを示した。
論文 参考訳(メタデータ) (2021-04-05T21:44:00Z) - Efficient Spatialtemporal Context Modeling for Action Recognition [42.30158166919919]
本稿では,アクション認識のための高密度長範囲コンテキスト情報映像をモデル化するためのRCCA-3Dモジュールを提案する。
我々は, 水平方向, 垂直方向, 深さの各時間における同一線上の点間の関係をモデル化し, 3次元クリスクロス構造を形成する。
非局所的な手法と比較して、RCCA-3DモジュールはビデオコンテキストモデリングにおいてパラメータとFLOPの数を25%と11%削減する。
論文 参考訳(メタデータ) (2021-03-20T14:48:12Z) - SA-Det3D: Self-Attention Based Context-Aware 3D Object Detection [9.924083358178239]
本稿では,3次元物体検出におけるコンテキストモデリングのための2種類の自己注意法を提案する。
まず,現状のbev,voxel,ポイントベース検出器にペアワイズ自着機構を組み込む。
次に,ランダムにサンプリングされた位置の変形を学習することにより,最も代表的な特徴のサブセットをサンプリングするセルフアテンション変種を提案する。
論文 参考訳(メタデータ) (2021-01-07T18:30:32Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。