論文の概要: Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion
Forecasting with a Single Convolutional Net
- arxiv url: http://arxiv.org/abs/2012.12395v1
- Date: Tue, 22 Dec 2020 22:43:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 07:27:40.946182
- Title: Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion
Forecasting with a Single Convolutional Net
- Title(参考訳): fast and furious: 1つの畳み込みネットによるリアルタイムエンドツーエンド3d検出、追跡、モーション予測
- Authors: Wenjie Luo, Bin Yang, Raquel Urtasun
- Abstract要約: 本研究では,3Dセンサが捉えたデータを用いて,3D検出,追跡,動作予測を共同で推論する,新たなディープニューラルネットワークを提案する。
鳥の眼球を3次元の世界として表現し,空間と時間にまたがる3次元畳み込みを行う。
- 参考スコア(独自算出の注目度): 93.51773847125014
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper we propose a novel deep neural network that is able to jointly
reason about 3D detection, tracking and motion forecasting given data captured
by a 3D sensor. By jointly reasoning about these tasks, our holistic approach
is more robust to occlusion as well as sparse data at range. Our approach
performs 3D convolutions across space and time over a bird's eye view
representation of the 3D world, which is very efficient in terms of both memory
and computation. Our experiments on a new very large scale dataset captured in
several north american cities, show that we can outperform the state-of-the-art
by a large margin. Importantly, by sharing computation we can perform all tasks
in as little as 30 ms.
- Abstract(参考訳): 本稿では,3次元センサが捉えたデータに基づいて,3次元検出・追跡・動き予測を共同で行うことのできる,新しいディープニューラルネットワークを提案する。
これらのタスクを共同で推論することで、私たちの全体論的アプローチは、範囲内のデータのスパースだけでなく、オクルージョンにもより強固になります。
本手法は,3次元世界における鳥の眼球図上で,空間的・時間的に3次元畳み込みを行い,メモリと計算の両面で非常に効率的である。
北米のいくつかの都市で採取された、新しい大規模データセットに関する実験では、最先端のデータを大きなマージンで上回ることができることが分かりました。
重要なのは、計算を共有することで、すべてのタスクを30ミリ秒で実行できることです。
関連論文リスト
- DELTA: Dense Efficient Long-range 3D Tracking for any video [82.26753323263009]
DELTAは3次元空間内のすべてのピクセルを効率よく追跡し,ビデオ全体の正確な動き推定を可能にする手法である。
提案手法では,低分解能追跡のためのグローバルアテンション機構と,高分解能予測を実現するためのトランスフォーマーベースアップサンプラーを併用する。
提案手法は,3次元空間における細粒度・長期動作追跡を必要とするアプリケーションに対して,ロバストなソリューションを提供する。
論文 参考訳(メタデータ) (2024-10-31T17:59:01Z) - Moby: Empowering 2D Models for Efficient Point Cloud Analytics on the
Edge [11.588467580653608]
3Dオブジェクト検出は多くのアプリケーションにおいて重要な役割を担っている。
計算能力が限られているため、高度に複雑なニューラルネットワークを用いてエッジ上で3D検出を実行することは困難である。
クラウドへのオフロードのような一般的なアプローチは、送信中の大量のポイントクラウドデータのために、大きな遅延オーバーヘッドを引き起こす。
提案するMobyは,我々のアプローチの実現可能性と可能性を示す新しいシステムである。
論文 参考訳(メタデータ) (2023-02-18T03:42:31Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - From Multi-View to Hollow-3D: Hallucinated Hollow-3D R-CNN for 3D Object
Detection [101.20784125067559]
本稿では,3次元物体検出の問題に対処するため,Halucinated Hollow-3D R-CNNという新しいアーキテクチャを提案する。
本稿では,まず,視点ビューと鳥眼ビューに点雲を逐次投影することで,多視点特徴を抽出する。
3Dオブジェクトは、新しい階層型Voxel RoIプール操作でボックスリファインメントモジュールを介して検出される。
論文 参考訳(メタデータ) (2021-07-30T02:00:06Z) - AA3DNet: Attention Augmented Real Time 3D Object Detection [0.0]
本稿では,ポイントクラウドデータを用いた3Dオブジェクト検出のためのトレーニングと最適化の詳細とともに,新しいニューラルネットワークアーキテクチャを提案する。
本手法は,30FPS以上の速度で走行する平均精度と速度の両面で,この領域における過去の技術状況を上回っている。
これにより、自動運転車のようなリアルタイムアプリケーションにデプロイすることが可能になる。
論文 参考訳(メタデータ) (2021-07-26T12:18:23Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Searching Efficient 3D Architectures with Sparse Point-Voxel Convolution [34.713667358316286]
自動運転車は安全に運転するために、3Dシーンを効率的に正確に理解する必要がある。
既存の3次元知覚モデルは、低解像度のボキセル化とアグレッシブなダウンサンプリングのために、小さなインスタンスを十分に認識できない。
Sparse Point-Voxel Convolution (SPVConv) は,バニラ・スパース・コンボリューションを高分解能な点ベース分岐に装備する軽量な3次元モジュールである。
論文 参考訳(メタデータ) (2020-07-31T14:27:27Z) - Generative Sparse Detection Networks for 3D Single-shot Object Detection [43.91336826079574]
3Dオブジェクト検出は、ロボット工学や拡張現実など多くの有望な分野に適用可能であるため、広く研究されている。
しかし、3Dデータのまばらな性質は、このタスクに固有の課題をもたらしている。
本稿では,完全畳み込み単一ショットスパース検出ネットワークであるGenerative Sparse Detection Network (GSDN)を提案する。
論文 参考訳(メタデータ) (2020-06-22T15:54:24Z) - RUHSNet: 3D Object Detection Using Lidar Data in Real Time [0.0]
本稿では,ポイントクラウドデータ中の3次元物体を検出するニューラルネットワークアーキテクチャを提案する。
我々の研究は、平均的な精度と30FPSの速度の両方において、この分野の最先端技術を上回っている。
これにより、自動運転車を含むリアルタイムアプリケーションにデプロイすることが可能になる。
論文 参考訳(メタデータ) (2020-05-09T09:41:46Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。