論文の概要: Leveraging Temporal Information for 3D Detection and Domain Adaptation
- arxiv url: http://arxiv.org/abs/2006.16796v1
- Date: Tue, 30 Jun 2020 13:47:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 05:57:34.396913
- Title: Leveraging Temporal Information for 3D Detection and Domain Adaptation
- Title(参考訳): 時間情報を活用した3次元検出と領域適応
- Authors: Cunjun Yu, Zhongang Cai, Daxuan Ren, Haiyu Zhao
- Abstract要約: ポイントクラウドにタイムスタンプを追加することで、そのような情報を学習パイプラインに渡す簡単な方法を説明する。
本稿では,ポイントクラウドにタイムスタンプを追加することで,そのような情報を学習パイプラインに渡す簡単な方法を説明する。
- 参考スコア(独自算出の注目度): 12.336926089553778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ever since the prevalent use of the LiDARs in autonomous driving, tremendous
improvements have been made to the learning on the point clouds. However,
recent progress largely focuses on detecting objects in a single 360-degree
sweep, without extensively exploring the temporal information. In this report,
we describe a simple way to pass such information in the learning pipeline by
adding timestamps to the point clouds, which shows consistent improvements
across all three classes.
- Abstract(参考訳): 自動運転におけるlidarの利用が普及して以来、ポイントクラウドでの学習に多大な改善が加えられてきた。
しかし、最近の進歩は、時間的情報を広範囲に探ることなく、単一の360度スイープで物体を検出することに集中している。
本報告では,ポイントクラウドにタイムスタンプを追加することで,学習パイプラインにこのような情報を渡す簡単な方法について述べる。
関連論文リスト
- TimePillars: Temporally-Recurrent 3D LiDAR Object Detection [8.955064958311517]
TimePillarsは時間的にリカレントなオブジェクト検出パイプラインである。
時間にわたってLiDARデータの柱表現を利用する。
基礎的なビルディングブロックがいかに堅牢で効率的な結果を得るのに十分なかを示す。
論文 参考訳(メタデータ) (2023-12-22T10:25:27Z) - PTT: Point-Trajectory Transformer for Efficient Temporal 3D Object Detection [66.94819989912823]
時間的3次元物体検出を効率的に行うために,長期記憶が可能な点トラジェクトリ変換器を提案する。
私たちは、メモリバンクのストレージ要件を最小限に抑えるために、現在のフレームオブジェクトのポイントクラウドとその履歴トラジェクトリを入力として使用します。
大規模データセットに対する広範な実験を行い、我々のアプローチが最先端の手法に対してうまく機能することを実証した。
論文 参考訳(メタデータ) (2023-12-13T18:59:13Z) - SUIT: Learning Significance-guided Information for 3D Temporal Detection [15.237488449422008]
フレーム間の情報融合のためのスパース機能として時間的情報を単純化するSUIT(Significance-gUided Information for 3D Temporal Detection)を学習する。
大規模なnuScenesとデータセットにおいて、SUITは時間融合のメモリとコストを大幅に削減するだけでなく、最先端のベースラインよりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-07-04T16:22:10Z) - Irregular Change Detection in Sparse Bi-Temporal Point Clouds using
Learned Place Recognition Descriptors and Point-to-Voxel Comparison [0.0]
本稿では3次元点雲における変化検出のための革新的なアプローチを提案する。
深層学習位置認識記述子とボクセル対ポイント比較に基づく不規則物体抽出を用いる。
提案手法は実世界の実地実験で評価された。
論文 参考訳(メタデータ) (2023-06-27T12:22:25Z) - A Survey of Label-Efficient Deep Learning for 3D Point Clouds [109.07889215814589]
本稿では,点雲のラベル効率学習に関する包括的調査を行う。
本稿では,ラベルの種類によって提供されるデータ前提条件に基づいて,ラベル効率のよい学習手法を整理する分類法を提案する。
それぞれのアプローチについて、問題設定の概要と、関連する進展と課題を示す広範な文献レビューを提供する。
論文 参考訳(メタデータ) (2023-05-31T12:54:51Z) - Graph Neural Network and Spatiotemporal Transformer Attention for 3D
Video Object Detection from Point Clouds [94.21415132135951]
複数のフレームにおける時間情報を利用して3次元物体を検出することを提案する。
我々は,一般的なアンカーベースおよびアンカーフリー検出器に基づくアルゴリズムを実装した。
論文 参考訳(メタデータ) (2022-07-26T05:16:28Z) - Learning Spatial and Temporal Variations for 4D Point Cloud Segmentation [0.39373541926236766]
フレーム間の時間的情報は3次元シーンの知覚に重要な知識をもたらすと我々は主張する。
本研究では,4次元点雲の時間変動を捉えるために,時間変動対応モジュールと時間変化対応のボクセル点精製器を設計する。
論文 参考訳(メタデータ) (2022-07-11T07:36:26Z) - CVFNet: Real-time 3D Object Detection by Learning Cross View Features [11.402076835949824]
CVFNetと呼ばれるリアルタイムビューベースの1段3Dオブジェクト検出器を提案する。
本稿ではまず,複数の段階において,ポイント・アンド・レンジ・ビュー機能を深く統合した新しいポイント・ラウンジ機能融合モジュールを提案する。
次に, 得られた深度視点特徴を鳥の目視に変換する際に, 3次元形状を良好に維持する特別のスライスピラーを設計する。
論文 参考訳(メタデータ) (2022-03-13T06:23:18Z) - Learning Moving-Object Tracking with FMCW LiDAR [53.05551269151209]
新たに開発したLiDARセンサである周波数変調連続波(FMCW)を用いた学習型移動物体追跡手法を提案する。
ラベルが与えられた場合,同じインスタンスから機能を埋め込みスペースにまとめて,異なるインスタンスから機能を分離してトラッキング品質を向上させる,対照的な学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-02T09:11:36Z) - Lifting 2D Object Locations to 3D by Discounting LiDAR Outliers across
Objects and Views [70.1586005070678]
本稿では,2次元マスクオブジェクトの予測と生のLiDAR点雲を自動的に3次元境界ボックスに変換するシステムを提案する。
これらの手法は, より複雑なパイプラインや3Dモデル, 付加的な人為的な事前情報ソースを使用するにもかかわらず, 従来よりもはるかに優れていた。
論文 参考訳(メタデータ) (2021-09-16T13:01:13Z) - Spatio-temporal Self-Supervised Representation Learning for 3D Point
Clouds [96.9027094562957]
ラベルのないタスクから学習できる時間的表現学習フレームワークを導入する。
幼児が野生の視覚的データからどのように学ぶかに触発され、3Dデータから派生した豊かな手がかりを探索する。
STRLは3Dポイントクラウドシーケンスから2つの時間的関連フレームを入力として、空間データ拡張で変換し、不変表現を自己指導的に学習する。
論文 参考訳(メタデータ) (2021-09-01T04:17:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。