論文の概要: RobustPointSet: A Dataset for Benchmarking Robustness of Point Cloud
Classifiers
- arxiv url: http://arxiv.org/abs/2011.11572v5
- Date: Fri, 16 Apr 2021 09:01:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 02:28:23.357118
- Title: RobustPointSet: A Dataset for Benchmarking Robustness of Point Cloud
Classifiers
- Title(参考訳): RobustPointSet: ポイントクラウド分類器のロバスト性ベンチマーク用データセット
- Authors: Saeid Asgari Taghanaki, Jieliang Luo, Ran Zhang, Ye Wang, Pradeep
Kumar Jayaraman, Krishna Murthy Jatavallabhula
- Abstract要約: データの増大は推論中に見つからない変換には役に立たないことを示す。
我々は、ロバストPointSetと呼ばれる入力変換のための点クラウド分類モデルのロバスト性解析のためのデータセットを作成する。
我々の実験は、ポイントクラウド分類の進歩にもかかわらず、一貫してパフォーマンスを向上する単一のアーキテクチャは存在しないことを示唆している。
- 参考スコア(独自算出の注目度): 14.255134953205983
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The 3D deep learning community has seen significant strides in pointcloud
processing over the last few years. However, the datasets on which deep models
have been trained have largely remained the same. Most datasets comprise clean,
clutter-free pointclouds canonicalized for pose. Models trained on these
datasets fail in uninterpretible and unintuitive ways when presented with data
that contains transformations "unseen" at train time. While data augmentation
enables models to be robust to "previously seen" input transformations, 1) we
show that this does not work for unseen transformations during inference, and
2) data augmentation makes it difficult to analyze a model's inherent
robustness to transformations. To this end, we create a publicly available
dataset for robustness analysis of point cloud classification models
(independent of data augmentation) to input transformations, called
RobustPointSet. Our experiments indicate that despite all the progress in the
point cloud classification, there is no single architecture that consistently
performs better -- several fail drastically -- when evaluated on transformed
test sets. We also find that robustness to unseen transformations cannot be
brought about merely by extensive data augmentation. RobustPointSet can be
accessed through https://github.com/AutodeskAILab/RobustPointSet.
- Abstract(参考訳): 3dディープラーニングコミュニティはここ数年、pointcloud処理において大きな進歩を遂げてきた。
しかし、深層モデルが訓練されたデータセットはほとんど同じのままである。
ほとんどのデータセットは、ポーズ用に標準化されたクリーンで雑然としたポイントクラウドで構成されている。
これらのデータセットでトレーニングされたモデルは、列車の時刻に「見当たらない」変換を含むデータで示される場合、解釈不能で直感的な方法で失敗する。
データ拡張により、モデルが"事前に見える"入力変換に対して堅牢になる。
1) これは推論中の見えない変換には役に立たないことを示す。
2)データ拡張により、モデル固有の変換に対する堅牢性を分析するのが難しくなる。
この目的のために私たちは、入力変換に対する(データ拡張に依存しない)ポイントクラウド分類モデルのロバスト性分析のための公開データセット、ロバストpointsetを作成します。
私たちの実験は、ポイントクラウドの分類の進歩にもかかわらず、変換されたテストセットで評価した場合、継続的にパフォーマンスが向上するアーキテクチャは存在しないことを示しています。
また、未確認の変換に対する堅牢性は、単に広範なデータ拡張によってもたらされない。
RobustPointSetはhttps://github.com/AutodeskAILab/RobustPointSetからアクセスできる。
関連論文リスト
- Transfer Learning with Point Transformers [3.678615604632945]
Point Transformerは、Point Cloudデータの分類、セグメンテーション、検出のための最先端モデルである。
モデルNet10データセットに基づくこれらの注目ネットワークの分類性能について検討し、3次元MNISTデータセットを微調整後に分類するためにトレーニングされたモデルを用いた。
論文 参考訳(メタデータ) (2024-04-01T01:23:58Z) - 3D Adversarial Augmentations for Robust Out-of-Domain Predictions [115.74319739738571]
ドメイン外データへの一般化の改善に注力する。
対象を逆向きに変形させるベクトルの集合を学習する。
本研究では,学習したサンプル非依存ベクトルをモデルトレーニング時に利用可能なオブジェクトに適用することにより,対数拡大を行う。
論文 参考訳(メタデータ) (2023-08-29T17:58:55Z) - Effective Utilisation of Multiple Open-Source Datasets to Improve
Generalisation Performance of Point Cloud Segmentation Models [0.0]
航空点雲データのセマンティックセグメンテーションは、地面、建物、植生などのクラスに属するポイントを区別するために利用することができる。
ドローンや飛行機に搭載された空中センサーから発生する点雲は、LIDARセンサーやカメラと光度計を利用することができる。
そこで本研究では,データセットの単純な組み合わせが,期待通りに一般化性能を向上したモデルを生成することを示す。
論文 参考訳(メタデータ) (2022-11-29T02:31:01Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - MetaSets: Meta-Learning on Point Sets for Generalizable Representations [100.5981809166658]
本稿では,3次元領域一般化(DDG)の新たな課題について検討し,学習過程においてそれらにアクセスすることなく,他の目に見えない点雲の領域にモデルを一般化することを目的とする。
本稿ではメタセットを用いてこの問題に対処することを提案する。メタ学習は、慎重に設計された変換された点集合上の分類タスク群からポイントクラウド表現を抽出する。
実験結果から,MetaSetsは既存の3次元深層学習手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-04-15T03:24:39Z) - DFC: Deep Feature Consistency for Robust Point Cloud Registration [0.4724825031148411]
複雑なアライメントシーンのための学習に基づくアライメントネットワークを提案する。
我々は,3DMatchデータセットとKITTIオドメトリデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-11-15T08:27:21Z) - Lifting 2D Object Locations to 3D by Discounting LiDAR Outliers across
Objects and Views [70.1586005070678]
本稿では,2次元マスクオブジェクトの予測と生のLiDAR点雲を自動的に3次元境界ボックスに変換するシステムを提案する。
これらの手法は, より複雑なパイプラインや3Dモデル, 付加的な人為的な事前情報ソースを使用するにもかかわらず, 従来よりもはるかに優れていた。
論文 参考訳(メタデータ) (2021-09-16T13:01:13Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - Contemplating real-world object classification [53.10151901863263]
Barbuらが最近提案したObjectNetデータセットを再分析した。
日常の状況に物を含むこと。
分離されたオブジェクトにディープモデルを適用すると、元の論文のようにシーン全体ではなく、約20~30%の性能改善が得られます。
論文 参考訳(メタデータ) (2021-03-08T23:29:59Z) - The Devils in the Point Clouds: Studying the Robustness of Point Cloud
Convolutions [15.997907568429177]
本稿では,点群上の畳み込みネットワークであるPointConvの異なる変種を調査し,入力スケールと回転変化に対する堅牢性を検討する。
3次元幾何学的性質をpointconvへの入力として利用し,新しい視点不変ディスクリプタを導出する。
2D MNIST & CIFAR-10データセットと3D Semantic KITTI & ScanNetデータセットで実験が行われた。
論文 参考訳(メタデータ) (2021-01-19T19:32:38Z) - Point Transformer for Shape Classification and Retrieval of 3D and ALS
Roof PointClouds [3.3744638598036123]
本稿では,リッチポイントクラウド表現の導出を目的とした,完全注意モデルであるem Point Transformerを提案する。
モデルの形状分類と検索性能は,大規模都市データセット - RoofN3D と標準ベンチマークデータセット ModelNet40 で評価される。
提案手法は、RoofN3Dデータセットの他の最先端モデルよりも優れており、ModelNet40ベンチマークで競合する結果を与え、目に見えない点の破損に対して高い堅牢性を示す。
論文 参考訳(メタデータ) (2020-11-08T08:11:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。