論文の概要: RMS: Redundancy-Minimizing Point Cloud Sampling for Real-Time Pose Estimation
- arxiv url: http://arxiv.org/abs/2312.07337v3
- Date: Tue, 23 Apr 2024 12:47:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 19:35:42.445598
- Title: RMS: Redundancy-Minimizing Point Cloud Sampling for Real-Time Pose Estimation
- Title(参考訳): RMS: リアルタイムポース推定のための冗長性最小化点クラウドサンプリング
- Authors: Pavel Petracek, Kostas Alexis, Martin Saska,
- Abstract要約: 本稿では,3次元点群内の冗長性を最小化する RMS という新しい点群サンプリング手法を提案する。
RMSをポイントベースKISS-ICPと機能ベースLOAMオドメトリーパイプラインに統合する。
実験により、RMSは高度で幾何学的に生成された設定において、最先端の手法よりも高速、圧縮、精度が優れていることが示された。
- 参考スコア(独自算出の注目度): 13.163076804805732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The typical point cloud sampling methods used in state estimation for mobile robots preserve a high level of point redundancy. This redundancy unnecessarily slows down the estimation pipeline and may cause drift under real-time constraints. Such undue latency becomes a bottleneck for resource-constrained robots (especially UAVs), requiring minimal delay for agile and accurate operation. We propose a novel, deterministic, uninformed, and single-parameter point cloud sampling method named RMS that minimizes redundancy within a 3D point cloud. In contrast to the state of the art, RMS balances the translation-space observability by leveraging the fact that linear and planar surfaces inherently exhibit high redundancy propagated into iterative estimation pipelines. We define the concept of gradient flow, quantifying the local surface underlying a point. We also show that maximizing the entropy of the gradient flow minimizes point redundancy for robot ego-motion estimation. We integrate RMS into the point-based KISS-ICP and feature-based LOAM odometry pipelines and evaluate experimentally on KITTI, Hilti-Oxford, and custom datasets from multirotor UAVs. The experiments demonstrate that RMS outperforms state-of-the-art methods in speed, compression, and accuracy in well-conditioned as well as in geometrically-degenerated settings.
- Abstract(参考訳): 移動ロボットの状態推定に使用される典型的な点雲サンプリング法は高い点冗長性を保っている。
この冗長性は不必要に推定パイプラインを遅くし、リアルタイムな制約の下でドリフトを引き起こす可能性がある。
このような未処理のレイテンシは、リソースに制約のあるロボット(特にUAV)のボトルネックとなり、アジャイルで正確な運用には最小限の遅延が必要になる。
本稿では, RMS と呼ばれる新しい, 決定論的, 非形式的, 単一パラメータ点クラウドサンプリング手法を提案し, 三次元点クラウド内の冗長性を最小化する。
最先端とは対照的に、RMSは線形面と平面面が本質的に高い冗長性を反復的な推定パイプラインに伝播するという事実を活用することで、翻訳空間の可観測性をバランスさせる。
我々は勾配流の概念を定義し、点の下の局所曲面を定量化する。
また,勾配流のエントロピーの最大化は,ロボットのエゴモーション推定における点冗長性を最小化することを示す。
RMSをポイントベースKISS-ICPと機能ベースLOAMオドメトリーパイプラインに統合し、KITTI、Hilti-Oxford、およびマルチロータUAVからのカスタムデータセットで実験的に評価する。
実験により、RMSは、幾何的に生成された設定と同様に、良好な条件下での速度、圧縮、精度において最先端の手法より優れていることが示された。
関連論文リスト
- DM3D: Distortion-Minimized Weight Pruning for Lossless 3D Object Detection [42.07920565812081]
本稿では,3次元物体検出のための新しいトレーニング後の重み付け手法を提案する。
事前訓練されたモデルにおける冗長パラメータを決定し、局所性と信頼性の両方において最小限の歪みをもたらす。
本フレームワークは,ネットワーク出力の歪みを最小限に抑え,検出精度を最大に維持することを目的とする。
論文 参考訳(メタデータ) (2024-07-02T09:33:32Z) - Vanishing Point Estimation in Uncalibrated Images with Prior Gravity
Direction [82.72686460985297]
我々はマンハッタンのフレームを推定する問題に取り組む。
2つの新しい2行解法が導出され、そのうちの1つは既存の解法に影響を与える特異点に悩まされない。
また、局所最適化の性能を高めるために、任意の行で実行される新しい最小でないメソッドを設計する。
論文 参考訳(メタデータ) (2023-08-21T13:03:25Z) - Deep Equilibrium Optical Flow Estimation [80.80992684796566]
最近のSOTA(State-of-the-art)光フローモデルでは、従来のアルゴリズムをエミュレートするために有限ステップの更新操作を使用する。
これらのRNNは大きな計算とメモリオーバーヘッドを課し、そのような安定した推定をモデル化するために直接訓練されていない。
暗黙的層の無限レベル固定点として直接流れを解く手法として,Deep equilibrium Flow estimatorを提案する。
論文 参考訳(メタデータ) (2022-04-18T17:53:44Z) - iSDF: Real-Time Neural Signed Distance Fields for Robot Perception [64.80458128766254]
iSDFは実時間符号付き距離場再構成のための連続学習システムである。
より正確な再構築と、衝突コストと勾配のより良い近似を生成する。
論文 参考訳(メタデータ) (2022-04-05T15:48:39Z) - RMS-FlowNet: Efficient and Robust Multi-Scale Scene Flow Estimation for
Large-Scale Point Clouds [13.62166506575236]
RMS-FlowNetは、正確で効率的なシーンフロー推定のための、エンドツーエンドの学習ベースアーキテクチャである。
我々は,本モデルが,微調整を伴わずに,KITTIデータセットの現実のシーンに向けての競争力を示すことを示した。
論文 参考訳(メタデータ) (2022-04-01T11:02:58Z) - Variational encoder geostatistical analysis (VEGAS) with an application
to large scale riverine bathymetry [1.2093180801186911]
水位測定としても知られる河床形状の推定は,多くの応用において重要な役割を担っている。
本稿では,中央に狭い層を持つディープニューラルネットワークである可変オートエンコーダ(VAE)を利用するリダクション・オーダー・モデル(ROM)に基づくアプローチを提案する。
アメリカ合衆国,サバンナ川の1マイル到達地点において,我々の逆解析手法を検証した。
論文 参考訳(メタデータ) (2021-11-23T08:27:48Z) - Simultaneous boundary shape estimation and velocity field de-noising in
Magnetic Resonance Velocimetry using Physics-informed Neural Networks [70.7321040534471]
MRV(MR resonance velocimetry)は、流体の速度場を測定するために医療や工学で広く用いられている非侵襲的な技術である。
これまでの研究では、境界(例えば血管)の形状が先駆体として知られていた。
我々は、ノイズの多いMRVデータのみを用いて、最も可能性の高い境界形状と減音速度場を推定する物理インフォームニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-07-16T12:56:09Z) - SCTN: Sparse Convolution-Transformer Network for Scene Flow Estimation [71.2856098776959]
点雲は非秩序であり、その密度は著しく一様ではないため、点雲の3次元運動の推定は困難である。
本稿では,sparse convolution-transformer network (sctn) という新しいアーキテクチャを提案する。
学習した関係に基づく文脈情報が豊富で,対応点の一致に役立ち,シーンフローの推定に有効であることを示す。
論文 参考訳(メタデータ) (2021-05-10T15:16:14Z) - FESTA: Flow Estimation via Spatial-Temporal Attention for Scene Point
Clouds [28.899804787744202]
シーンフローは、自律運転、ロボットナビゲーション、AR/VRなど、さまざまなアプリケーションにとって重要な3Dシーンのダイナミクスを描いている。
典型的な点雲サンプリングパターンのばらつきと不規則さのため、点雲からシーンフローを抽出することは依然として困難である。
不安定な抽象問題を軽減するために, 注意を伴う空間抽象(SA2)層を提案する。
a temporal abstraction with attention (ta2) layer は、時間領域における注意を正すために提案され、より広い範囲でスケールされた動きの利点をもたらす。
論文 参考訳(メタデータ) (2021-04-01T23:04:04Z) - Physics-aware deep neural networks for surrogate modeling of turbulent
natural convection [0.0]
Rayleigh-B'enard乱流流に対するPINNのサーロゲートモデルの使用を検討する。
標準ピンの精度が低いゾーンであるトレーニング境界に近い正規化として、どのように機能するかを示す。
50億のDNS座標全体のサロゲートの予測精度は、相対的なL2ノルムで[0.3% -- 4%]の範囲のすべてのフロー変数のエラーをもたらします。
論文 参考訳(メタデータ) (2021-03-05T09:48:57Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。