論文の概要: Neural Scene Representation for Locomotion on Structured Terrain
- arxiv url: http://arxiv.org/abs/2206.08077v1
- Date: Thu, 16 Jun 2022 10:45:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 14:09:58.226809
- Title: Neural Scene Representation for Locomotion on Structured Terrain
- Title(参考訳): 構造地形のロコモーションのためのニューラルシーン表現
- Authors: David Hoeller, Nikita Rudin, Christopher Choy, Animashree Anandkumar,
Marco Hutter
- Abstract要約: 本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
- 参考スコア(独自算出の注目度): 56.48607865960868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a learning-based method to reconstruct the local terrain for
locomotion with a mobile robot traversing urban environments. Using a stream of
depth measurements from the onboard cameras and the robot's trajectory, the
algorithm estimates the topography in the robot's vicinity. The raw
measurements from these cameras are noisy and only provide partial and occluded
observations that in many cases do not show the terrain the robot stands on.
Therefore, we propose a 3D reconstruction model that faithfully reconstructs
the scene, despite the noisy measurements and large amounts of missing data
coming from the blind spots of the camera arrangement. The model consists of a
4D fully convolutional network on point clouds that learns the geometric priors
to complete the scene from the context and an auto-regressive feedback to
leverage spatio-temporal consistency and use evidence from the past. The
network can be solely trained with synthetic data, and due to extensive
augmentation, it is robust in the real world, as shown in the validation on a
quadrupedal robot, ANYmal, traversing challenging settings. We run the pipeline
on the robot's onboard low-power computer using an efficient sparse tensor
implementation and show that the proposed method outperforms classical map
representations.
- Abstract(参考訳): 本研究では,都市環境を横断する移動ロボットを用いて,局所地形を再構築する学習手法を提案する。
このアルゴリズムは、搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
これらのカメラからの生の計測は騒がしく、多くの場合、ロボットが立ち上がる地形を示さない部分的かつ目立たない観察しか提供しない。
そこで本研究では,カメラ配置の盲点から発生するノイズ測定や大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
モデルは点雲上の4次元完全畳み込みネットワークからなり、文脈からシーンを完遂するための幾何学的事前学習と、時空間的一貫性を活用し、過去の証拠を使用するための自己回帰フィードバックからなる。
ネットワークは合成データでのみ訓練することができ、広範囲な拡張のために現実世界で堅牢であり、四足歩行ロボットanymalの検証で示されているように、困難な設定を横断する。
我々は,ロボットの低消費電力コンピュータ上で,効率的なスパーステンソル実装を用いてパイプラインを実行し,提案手法が従来の地図表現より優れていることを示す。
関連論文リスト
- Robot See Robot Do: Imitating Articulated Object Manipulation with Monocular 4D Reconstruction [51.49400490437258]
本研究は,1つの単分子RGB人間の実演から音声による物体操作を模倣する手法を開発した。
まず,モノクロ映像から3次元部分運動を復元する4次元微分可能部品モデル(4D-DPM)を提案する。
この4D再構成を前提として、ロボットは物体の軌道を再現し、両腕の動きを計画し、実証された物体部分の動きを誘導する。
両用するYuMiロボットを用いて,4D-DPMの3D追跡精度を実写3D部分軌跡に基づいて評価し,9つのオブジェクトに対してRSRDの物理的実行性能を評価した。
論文 参考訳(メタデータ) (2024-09-26T17:57:16Z) - DistillNeRF: Perceiving 3D Scenes from Single-Glance Images by Distilling Neural Fields and Foundation Model Features [65.8738034806085]
DistillNeRFは、自動運転シーンにおける3D環境を理解するための自己教師型学習フレームワークである。
本手法は,スパースで単一フレームのマルチビューカメラ入力からリッチなニューラルシーン表現を予測する一般化可能なフィードフォワードモデルである。
論文 参考訳(メタデータ) (2024-06-17T21:15:13Z) - PoseINN: Realtime Visual-based Pose Regression and Localization with Invertible Neural Networks [3.031375888004876]
カメラからエゴ位置を推定することは、モバイルロボティクスから拡張現実に至るまで、ロボット工学における重要な問題である。
本稿では,画像の潜在空間とシーンのポーズの間のマッピングを見つけるために,非可逆ニューラルネットワーク(INN)を用いてこの問題を解決することを提案する。
我々のモデルは、訓練が速く、低解像度合成データのオフラインレンダリングしか必要とせず、SOTAと同じような性能を実現している。
論文 参考訳(メタデータ) (2024-04-20T06:25:32Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - NSLF-OL: Online Learning of Neural Surface Light Fields alongside
Real-time Incremental 3D Reconstruction [0.76146285961466]
そこで本研究では,視線方向の小さな方向に対応できるニューラルサーフェス光場モデルを提案する。
我々のモデルは、リアルタイムな3次元再構成の他に、シーケンシャルなデータストリームを共有入力として、ニューラルネットワーク光場(NSLF)をオンラインで学習する。
オンライントレーニングに加えて、可視化のためにデータストリームを完了した後のリアルタイムレンダリングも提供する。
論文 参考訳(メタデータ) (2023-04-29T15:41:15Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Markerless Camera-to-Robot Pose Estimation via Self-supervised
Sim-to-Real Transfer [26.21320177775571]
本稿では,オンラインカメラ・ロボット・キャリブレーションと自己監督型トレーニング手法を備えたエンドツーエンドのポーズ推定フレームワークを提案する。
我々のフレームワークはロボットのポーズを解くための深層学習と幾何学的ビジョンを組み合わせており、パイプラインは完全に微分可能である。
論文 参考訳(メタデータ) (2023-02-28T05:55:42Z) - Leveraging Deepfakes to Close the Domain Gap between Real and Synthetic
Images in Facial Capture Pipelines [8.366597450893456]
我々は、パーソナライズされたアプリ内ビデオデータから3次元顔モデルを構築し、追跡するためのエンドツーエンドパイプラインを提案する。
本稿では,従来のコンピュータグラフィックスパイプラインにおける衝突アルゴリズムに典型的な階層的クラスタリングフレームワークに基づく自動データキュレーションと検索手法を提案する。
我々は、前述の技術を活用して、現実の地上真実データの必要性を回避するために、モーションキャプチャ回帰器のトレーニング方法を概説する。
論文 参考訳(メタデータ) (2022-04-22T15:09:49Z) - Solving Occlusion in Terrain Mapping with Neural Networks [7.703348666813963]
本研究では,実世界のデータに基づいて,地上情報を必要としない自己教師付き学習手法を提案する。
私たちのニューラルネットワークは、自律的な地上ロボットに適したサンプリングレートで、CPUとGPUの両方でリアルタイムで実行できます。
論文 参考訳(メタデータ) (2021-09-15T08:30:16Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。