論文の概要: TANet++: Triple Attention Network with Filtered Pointcloud on 3D
Detection
- arxiv url: http://arxiv.org/abs/2106.15366v1
- Date: Sat, 26 Jun 2021 16:56:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 09:55:55.620111
- Title: TANet++: Triple Attention Network with Filtered Pointcloud on 3D
Detection
- Title(参考訳): tanet++: 3d検出のためのフィルタ付きpointcloudによるトリプルアテンションネットワーク
- Authors: Cong Ma
- Abstract要約: TANetはKITTIおよびJRDBベンチマークにおける最先端の3Dオブジェクト検出手法の1つである。
本稿では,TANet++による3次元検出の性能向上を提案する。
弱いサンプルによる負の影響を減らすために、トレーニング戦略は以前トレーニングデータをフィルタリングし、TANet++は残りのデータによってトレーニングされる。
- 参考スコア(独自算出の注目度): 7.64943832687184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: TANet is one of state-of-the-art 3D object detection method on KITTI and JRDB
benchmark, the network contains a Triple Attention module and Coarse-to-Fine
Regression module to improve the robustness and accuracy of 3D Detection.
However, since the original input data (point clouds) contains a lot of noise
during collecting the data, which will further affect the training of the
model. For example, the object is far from the robot, the sensor is difficult
to obtain enough pointcloud. If the objects only contains few point clouds, and
the samples are fed into model with the normal samples together during
training, the detector will be difficult to distinguish the individual with few
pointcloud belong to object or background. In this paper, we propose TANet++ to
improve the performance on 3D Detection, which adopt a novel training strategy
on training the TANet. In order to reduce the negative impact by the weak
samples, the training strategy previously filtered the training data, and then
the TANet++ is trained by the rest of data. The experimental results shows that
AP score of TANet++ is 8.98\% higher than TANet on JRDB benchmark.
- Abstract(参考訳): TANetはKITTIおよびJRDBベンチマークにおける最先端の3Dオブジェクト検出手法の1つであり,3D検出の堅牢性と精度を向上させるために,Triple AttentionモジュールとCoarse-to-Fine Regressionモジュールを含む。
しかし、元の入力データ(ポイントクラウド)にはデータ収集中に多くのノイズが含まれているため、モデルのトレーニングにさらに影響を与えます。
例えば、物体はロボットから遠く離れており、センサーは十分なポイントクラウドを得るのが困難である。
オブジェクトがわずかなポイントクラウドしか含んでおらず、サンプルがトレーニング中に通常のサンプルと一緒にモデルに投入されると、検出者はオブジェクトやバックグラウンドに属するポイントクラウドの少ない個人を区別することが困難になる。
本稿では,tanetをトレーニングするための新しいトレーニング戦略を採用する3d検出の性能を向上させるために,tanet++を提案する。
弱いサンプルによるネガティブな影響を減らすために、トレーニング戦略はトレーニングデータをフィルタし、その後、tanet++は残りのデータによってトレーニングされる。
実験の結果, TANet++のAPスコアはJRDBベンチマークでTANetよりも8.98\%高いことがわかった。
関連論文リスト
- AutoSynth: Learning to Generate 3D Training Data for Object Point Cloud
Registration [69.21282992341007]
Auto Synthは、ポイントクラウド登録のための3Dトレーニングデータを自動的に生成する。
私たちはポイントクラウド登録ネットワークをもっと小さなサロゲートネットワークに置き換え、4056.43$のスピードアップを実現しました。
TUD-L,LINEMOD,Occluded-LINEMODに関する我々の研究結果は,検索データセットでトレーニングされたニューラルネットワークが,広く使用されているModelNet40データセットでトレーニングされたニューラルネットワークよりも一貫してパフォーマンスが向上していることを示す。
論文 参考訳(メタデータ) (2023-09-20T09:29:44Z) - Weakly Supervised Point Clouds Transformer for 3D Object Detection [4.723682216326063]
本稿では3次元物体検出に使用される点雲変圧器の弱監督のための枠組みを提案する。
目的は、3Dデータセットのアノテートに高いコストがかかるため、トレーニングに必要な監督の必要な量を削減することである。
挑戦的なKITTIデータセットでは、実験結果は平均精度が最も高いレベルに達した。
論文 参考訳(メタデータ) (2023-09-08T03:56:34Z) - Hierarchical Supervision and Shuffle Data Augmentation for 3D
Semi-Supervised Object Detection [90.32180043449263]
最先端の3Dオブジェクト検出器は通常、高品質な3Dアノテーションを備えた大規模データセットで訓練される。
自然な治療法は、限られた量のラベル付きサンプルと豊富なラベル付きサンプルを活用することで、半教師付き学習(SSL)を採用することである。
本稿では,HSSDA(Hierarchical Supervision and Shuffle Data Augmentation)の新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-04-04T02:09:32Z) - MATE: Masked Autoencoders are Online 3D Test-Time Learners [63.3907730920114]
MATEは3Dデータ用に設計された最初のTTT(Test-Time-Training)手法である。
テストデータで発生する分散シフトに対して、ポイントクラウド分類のためにトレーニングされたディープネットワークを堅牢にする。
論文 参考訳(メタデータ) (2022-11-21T13:19:08Z) - Teacher-Student Network for 3D Point Cloud Anomaly Detection with Few
Normal Samples [21.358496646676087]
教師による3次元異常検出のための構造化モデルの設計を行う。
具体的には、特徴空間アライメント、次元ズーム、最大プールを用いて点雲の特徴を抽出する。
本手法では,学生ネットワークを学習するために,ごくごく普通のサンプルしか必要としない。
論文 参考訳(メタデータ) (2022-10-31T12:29:55Z) - Point Discriminative Learning for Unsupervised Representation Learning
on 3D Point Clouds [54.31515001741987]
3次元点雲上での教師なし表現学習のための点識別学習法を提案する。
我々は、中間レベルとグローバルレベルの特徴に新しい点識別損失を課すことにより、これを達成した。
提案手法は強力な表現を学習し,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2021-08-04T15:11:48Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z) - Self-Supervised Pretraining of 3D Features on any Point-Cloud [40.26575888582241]
3D登録なしで任意の3Dデータを扱うことができる簡単な自己監督関連方法を紹介します。
オブジェクト検出、セマンティックセグメンテーション、オブジェクト分類の9つのベンチマークでモデルを評価し、最新の結果を達成し、教師付きプリトレーニングを上回ります。
論文 参考訳(メタデータ) (2021-01-07T18:55:21Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。