論文の概要: Any Motion Detector: Learning Class-agnostic Scene Dynamics from a
Sequence of LiDAR Point Clouds
- arxiv url: http://arxiv.org/abs/2004.11647v1
- Date: Fri, 24 Apr 2020 10:40:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 04:10:43.709857
- Title: Any Motion Detector: Learning Class-agnostic Scene Dynamics from a
Sequence of LiDAR Point Clouds
- Title(参考訳): 任意のモーション検出器:LiDAR点群からのクラス非依存シーンダイナミクスの学習
- Authors: Artem Filatov, Andrey Rykov, Viacheslav Murashkin
- Abstract要約: 動き検出と動きパラメータ推定のための時間的文脈アグリゲーションの新しいリアルタイム手法を提案する。
本稿では,固有点雲列の固有オドメトリック変換に匹敵する性能で,リアルタイムな推論を実現するためのエゴモーション補償層を提案する。
- 参考スコア(独自算出の注目度): 4.640835690336654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection and motion parameters estimation are crucial tasks for
self-driving vehicle safe navigation in a complex urban environment. In this
work we propose a novel real-time approach of temporal context aggregation for
motion detection and motion parameters estimation based on 3D point cloud
sequence. We introduce an ego-motion compensation layer to achieve real-time
inference with performance comparable to a naive odometric transform of the
original point cloud sequence. Not only is the proposed architecture capable of
estimating the motion of common road participants like vehicles or pedestrians
but also generalizes to other object categories which are not present in
training data. We also conduct an in-deep analysis of different temporal
context aggregation strategies such as recurrent cells and 3D convolutions.
Finally, we provide comparison results of our state-of-the-art model with
existing solutions on KITTI Scene Flow dataset.
- Abstract(参考訳): 複雑な都市環境における自動運転車の安全ナビゲーションには,物体検出と移動パラメータ推定が不可欠である。
本研究では3次元点雲列に基づく動き検出と動きパラメータ推定のための時間的文脈アグリゲーションの新しいリアルタイム手法を提案する。
我々は,原点雲列のナイーブなオドメトリー変換に匹敵する性能を持つリアルタイム推論を実現するために,エゴモーション補償層を導入する。
提案アーキテクチャは,車両や歩行者などの一般道路参加者の動きを推定できるだけでなく,訓練データに存在しない他の対象カテゴリーにも一般化できる。
また,再帰性細胞や3D畳み込みなどの時間的文脈アグリゲーション戦略を深く分析する。
最後に、KITTI Scene Flowデータセット上の既存のソリューションとの比較結果を提供する。
関連論文リスト
- DEFLOW: Self-supervised 3D Motion Estimation of Debris Flow [19.240172015210586]
土石流の3次元運動推定モデルであるDefLOWを提案する。
我々は、シーンの帰納バイアスを組み込むために、新しいマルチレベルセンサー融合アーキテクチャとセルフスーパービジョンを採用する。
本モデルでは,我々のデータセット上での最先端の光学的流れと深度推定を実現し,デブリ流の運動推定を完全に自動化する。
論文 参考訳(メタデータ) (2023-04-05T16:40:14Z) - Dyna-DepthFormer: Multi-frame Transformer for Self-Supervised Depth
Estimation in Dynamic Scenes [19.810725397641406]
シーン深度と3次元運動場を協調的に予測する新しいDyna-Depthformerフレームワークを提案する。
まず,多視点の相関を一連の自己・横断的層を通じて活用し,深度特徴表現の強化を図る。
第2に,動的物体の運動場をセマンティック・プレセプションを使わずに推定するワーピングに基づく運動ネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-14T09:43:23Z) - Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions [65.84090965167535]
本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
論文 参考訳(メタデータ) (2022-06-29T18:47:05Z) - Receding Moving Object Segmentation in 3D LiDAR Data Using Sparse 4D
Convolutions [33.538055872850514]
歩行歩行者や自動車などの現在移動している物体に属する3D LiDAR点と、壁や駐車中の車など移動しない物体から得られる点とを区別する問題に対処する。
我々の手法は観測されたLiDARスキャンを連続して4D点雲に変換する。
計算効率の良いスパース4D畳み込みを適用し,空間的特徴と時間的特徴を共同抽出し,各点の移動物体の信頼度を推定する。
論文 参考訳(メタデータ) (2022-06-08T18:51:14Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Do not trust the neighbors! Adversarial Metric Learning for
Self-Supervised Scene Flow Estimation [0.0]
シーンフローは動的3次元シーンの個々の点に3次元運動ベクトルを推定するタスクである。
本稿では,3次元シーンフローベンチマークと,トレーニングフローモデルのための新しい自己教師型セットアップを提案する。
我々は,移動コヒーレンスを保ち,多くの自監督ベースラインが把握できない局所的なジオメトリーを維持できることを発見した。
論文 参考訳(メタデータ) (2020-11-01T17:41:32Z) - Self-Supervised Learning of Part Mobility from Point Cloud Sequence [9.495859862104515]
動的対象を表す点列から,部品のセグメント化と動作特性の予測を行う自己教師型手法を提案する。
シーケンスの連続するフレーム間の相関を利用してトラジェクトリを生成する。
動作部分分割, 動き軸予測, 動き範囲推定など, 様々なタスクにおける提案手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-20T11:29:46Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - Benchmarking Unsupervised Object Representations for Video Sequences [111.81492107649889]
ViMON, OP3, TBA, SCALORの4つのオブジェクト中心アプローチの知覚能力を比較した。
この結果から,制約のない潜在表現を持つアーキテクチャは,オブジェクト検出やセグメンテーション,トラッキングといった観点から,より強力な表現を学習できる可能性が示唆された。
我々のベンチマークは、より堅牢なオブジェクト中心のビデオ表現を学習するための実りあるガイダンスを提供するかもしれない。
論文 参考訳(メタデータ) (2020-06-12T09:37:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。