論文の概要: LabelFormer: Object Trajectory Refinement for Offboard Perception from
LiDAR Point Clouds
- arxiv url: http://arxiv.org/abs/2311.01444v1
- Date: Thu, 2 Nov 2023 17:56:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 12:24:41.674866
- Title: LabelFormer: Object Trajectory Refinement for Offboard Perception from
LiDAR Point Clouds
- Title(参考訳): LabelFormer: LiDARポイントクラウドからのオフボード知覚のためのオブジェクトトラジェクトリリファインメント
- Authors: Anqi Joyce Yang, Sergio Casas, Nikita Dvornik, Sean Segal, Yuwen
Xiong, Jordan Sir Kwang Hu, Carter Fang, Raquel Urtasun
- Abstract要約: オフボード認識モデルは、生のLiDARポイントクラウドからアノテーションを自動的に生成するように訓練されている。
本稿では,単純で効率的かつ効果的な軌道レベルの改良手法である LabelFormer を提案する。
提案手法はまず,まず各フレームの観察を別々に符号化し,その後,時間的文脈の完全な軌跡を判断するために自己注意を利用する。
- 参考スコア(独自算出の注目度): 37.87496475959941
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A major bottleneck to scaling-up training of self-driving perception systems
are the human annotations required for supervision. A promising alternative is
to leverage "auto-labelling" offboard perception models that are trained to
automatically generate annotations from raw LiDAR point clouds at a fraction of
the cost. Auto-labels are most commonly generated via a two-stage approach --
first objects are detected and tracked over time, and then each object
trajectory is passed to a learned refinement model to improve accuracy. Since
existing refinement models are overly complex and lack advanced temporal
reasoning capabilities, in this work we propose LabelFormer, a simple,
efficient, and effective trajectory-level refinement approach. Our approach
first encodes each frame's observations separately, then exploits
self-attention to reason about the trajectory with full temporal context, and
finally decodes the refined object size and per-frame poses. Evaluation on both
urban and highway datasets demonstrates that LabelFormer outperforms existing
works by a large margin. Finally, we show that training on a dataset augmented
with auto-labels generated by our method leads to improved downstream detection
performance compared to existing methods. Please visit the project website for
details https://waabi.ai/labelformer
- Abstract(参考訳): 自動運転認識システムのスケールアップトレーニングにおける大きなボトルネックは、監視に必要な人間のアノテーションである。
有望な選択肢は、低コストで生のlidarポイントクラウドからアノテーションを自動的に生成するように訓練された"自動ラベリング"オフボード知覚モデルを活用することだ。
オートラベルは2段階のアプローチで生成され、最初のオブジェクトは時間とともに検出・追跡され、各オブジェクトの軌道は学習された洗練モデルに渡されて精度が向上する。
既存のリファインメントモデルは複雑すぎ、時間的推論能力に乏しいため、本研究では、単純で効率的で効果的な軌道レベルのリファインメントアプローチである labelformer を提案する。
提案手法では,まず各フレームの観察を別々にエンコードし,その後,完全な時間的文脈で軌道を判断し,最後に洗練されたオブジェクトサイズとフレーム毎ポーズを復号する。
都市と高速道路のデータセットの評価は、LabelFormerが既存の作品を大きなマージンで上回っていることを示している。
最後に,本手法により自動ラベルを付加したデータセットのトレーニングにより,既存の手法と比較して下流検出性能が向上することを示す。
詳細はプロジェクトのwebサイトへ。 https://waabi.ai/labelformer
関連論文リスト
- TrajSSL: Trajectory-Enhanced Semi-Supervised 3D Object Detection [59.498894868956306]
Pseudo-labeling approach to semi-supervised learning は教師-学生の枠組みを採用する。
我々は、事前学習した動き予測モデルを活用し、擬似ラベル付きデータに基づいて物体軌跡を生成する。
提案手法は2つの異なる方法で擬似ラベル品質を向上する。
論文 参考訳(メタデータ) (2024-09-17T05:35:00Z) - Boosting Gesture Recognition with an Automatic Gesture Annotation Framework [10.158684480548242]
そこで本稿では,ジェスチャクラスを自動的にアノテートし,その時間範囲を識別するフレームワークを提案する。
本フレームワークは,(1)コネクショニスト時間分類(CTC)の損失を利用した新しいアノテーションモデル,(2)半教師付き学習パイプラインからなる。
これらの高品質な擬似ラベルは、他の下流ジェスチャ認識モデルの精度を高めるためにも使用できる。
論文 参考訳(メタデータ) (2024-01-20T07:11:03Z) - Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR
based 3D Object Detection [50.959453059206446]
本稿では,高性能なオフラインLiDARによる3Dオブジェクト検出を実現することを目的とする。
まず、経験豊富な人間のアノテータが、トラック中心の視点でオブジェクトに注釈を付けるのを観察する。
従来のオブジェクト中心の視点ではなく,トラック中心の視点で高性能なオフライン検出器を提案する。
論文 参考訳(メタデータ) (2023-04-24T17:59:05Z) - LESS: Label-Efficient Semantic Segmentation for LiDAR Point Clouds [62.49198183539889]
我々は,LiDAR点雲を用いた屋外シーンのためのラベル効率のよいセマンティックセマンティックセマンティクスパイプラインを提案する。
本手法は,半弱教師付き学習を用いて,効率的なラベリング手法を設計する。
提案手法は,100%ラベル付き完全教師付き手法と比較して,さらに競争力が高い。
論文 参考訳(メタデータ) (2022-10-14T19:13:36Z) - MAPLE: Masked Pseudo-Labeling autoEncoder for Semi-supervised Point
Cloud Action Recognition [160.49403075559158]
本稿では,Pseudo-Labeling autoEncoder (textbfMAPLE) フレームワークを提案する。
特に、MAPLEのバックボーンとして、新規で効率的なtextbfDecoupled textbfspatial-textbftemporal TranstextbfFormer(textbfDestFormer)を設計する。
MAPLEは3つの公開ベンチマークにおいて優れた結果を得て、MSR-Action3の精度を8.08%向上させる。
論文 参考訳(メタデータ) (2022-09-01T12:32:40Z) - Weakly-Supervised Salient Object Detection Using Point Supervison [17.88596733603456]
現在の最先端の精度検出モデルは、正確なピクセル単位のアノテーションの大規模なデータセットに大きく依存している。
本稿では,ポイント・インスペクタを用いた弱教師付きサルエント・オブジェクト検出手法を提案する。
我々の手法は、より強い監督力で訓練された従来の最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T12:16:05Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。