論文の概要: TACO-Net: Topological Signatures Triumph in 3D Object Classification
- arxiv url: http://arxiv.org/abs/2509.24802v1
- Date: Mon, 29 Sep 2025 13:52:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.026675
- Title: TACO-Net: Topological Signatures Triumph in 3D Object Classification
- Title(参考訳): TACO-Net:3次元オブジェクト分類におけるトポロジカルシグナチャの勝利
- Authors: Anirban Ghosh, Ayan Dutta,
- Abstract要約: TACO-Netは新しい最先端を99.05%$と99.52%$の精度で設定する。
10種類のモデルNet40入力でテストすると、提案したTACO-Netは全体として強いレジリエンスを示す。
- 参考スコア(独自算出の注目度): 3.260760015139318
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D object classification is a crucial problem due to its significant practical relevance in many fields, including computer vision, robotics, and autonomous driving. Although deep learning methods applied to point clouds sampled on CAD models of the objects and/or captured by LiDAR or RGBD cameras have achieved remarkable success in recent years, achieving high classification accuracy remains a challenging problem due to the unordered point clouds and their irregularity and noise. To this end, we propose a novel state-of-the-art (SOTA) 3D object classification technique that combines topological data analysis with various image filtration techniques to classify objects when they are represented using point clouds. We transform every point cloud into a voxelized binary 3D image to extract distinguishing topological features. Next, we train a lightweight one-dimensional Convolutional Neural Network (1D CNN) using the extracted feature set from the training dataset. Our framework, TACO-Net, sets a new state-of-the-art by achieving $99.05\%$ and $99.52\%$ accuracy on the widely used synthetic benchmarks ModelNet40 and ModelNet10, and further demonstrates its robustness on the large-scale real-world OmniObject3D dataset. When tested with ten different kinds of corrupted ModelNet40 inputs, the proposed TACO-Net demonstrates strong resiliency overall.
- Abstract(参考訳): 3Dオブジェクトの分類は、コンピュータビジョン、ロボティクス、自動運転など、多くの分野で重要な実践的関連性のために重要な問題である。
近年,物体のCADモデルやLiDARやRGBDカメラで捉えた点群に応用された深層学習手法が顕著に成功しているが,非秩序な点群や不規則性やノイズのため,高い分類精度を実現することは難しい問題である。
そこで本研究では, 位相データ解析と様々な画像フィルタリング技術を組み合わせて, 点雲を用いて表現されたオブジェクトを分類する, 最先端の3次元オブジェクト分類手法を提案する。
我々は,各点の雲をボキセル化したバイナリ3次元画像に変換し,位相的特徴を抽出する。
次に,トレーニングデータセットから抽出した特徴を用いて,軽量な1次元畳み込みニューラルネットワーク (1D CNN) を訓練する。
我々のフレームワークであるTACO-Netは、広く使われている合成ベンチマークであるModelNet40とModelNet10で99.05\%と99.52\%の精度を達成し、新しい最先端技術を設定し、大規模現実世界のOmniObject3Dデータセットにその堅牢性を示す。
10種類のモデルNet40入力でテストすると、提案したTACO-Netは全体として強いレジリエンスを示す。
関連論文リスト
- UniPre3D: Unified Pre-training of 3D Point Cloud Models with Cross-Modal Gaussian Splatting [64.31900521467362]
既存の事前学習方法は、オブジェクトレベルとシーンレベルの両方の点群に対して等しく有効である。
UniPre3Dは,任意のスケールの点群やアーキテクチャの3Dモデルに対してシームレスに適用可能な,最初の統合事前学習手法である。
論文 参考訳(メタデータ) (2025-06-11T17:23:21Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal Pre-training Paradigm [111.16358607889609]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - Learning Effective NeRFs and SDFs Representations with 3D Generative Adversarial Networks for 3D Object Generation [27.068337487647156]
ICCV 2023 OmniObject3D Challengeの3次元オブジェクト生成ソリューションを提案する。
本研究では,3次元オブジェクト生成のための3次元生成支援ネットワーク(GAN)を用いた学習効率の高いNeRFとSDFの表現について検討する。
このソリューションはICCV 2023 OmniObject3D Challengeでトップ3に入っている。
論文 参考訳(メタデータ) (2023-09-28T02:23:46Z) - AutoSynth: Learning to Generate 3D Training Data for Object Point Cloud
Registration [69.21282992341007]
Auto Synthは、ポイントクラウド登録のための3Dトレーニングデータを自動的に生成する。
私たちはポイントクラウド登録ネットワークをもっと小さなサロゲートネットワークに置き換え、4056.43$のスピードアップを実現しました。
TUD-L,LINEMOD,Occluded-LINEMODに関する我々の研究結果は,検索データセットでトレーニングされたニューラルネットワークが,広く使用されているModelNet40データセットでトレーニングされたニューラルネットワークよりも一貫してパフォーマンスが向上していることを示す。
論文 参考訳(メタデータ) (2023-09-20T09:29:44Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - Self-Supervised Learning with Multi-View Rendering for 3D Point Cloud
Analysis [33.31864436614945]
本稿では,3次元点雲モデルのための新しい事前学習手法を提案する。
我々の事前訓練は、局所的なピクセル/ポイントレベルの対応損失と、大域的な画像/ポイントの雲のレベル損失によって自己管理される。
これらの改善されたモデルは、さまざまなデータセットや下流タスクにおける既存の最先端メソッドよりも優れています。
論文 参考訳(メタデータ) (2022-10-28T05:23:03Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Point Transformer for Shape Classification and Retrieval of 3D and ALS
Roof PointClouds [3.3744638598036123]
本稿では,リッチポイントクラウド表現の導出を目的とした,完全注意モデルであるem Point Transformerを提案する。
モデルの形状分類と検索性能は,大規模都市データセット - RoofN3D と標準ベンチマークデータセット ModelNet40 で評価される。
提案手法は、RoofN3Dデータセットの他の最先端モデルよりも優れており、ModelNet40ベンチマークで競合する結果を与え、目に見えない点の破損に対して高い堅牢性を示す。
論文 参考訳(メタデータ) (2020-11-08T08:11:02Z) - Triangle-Net: Towards Robustness in Point Cloud Learning [0.0]
本稿では, 回転, 位置シフト, スケーリングに対する不変性を同時に実現し, 点間隔に頑健な3次元分類手法を提案する。
提案手法は,ModelNet 40分類タスクにおいて,ポイントネットと3DmFVをそれぞれ35.0%,28.1%で上回っている。
論文 参考訳(メタデータ) (2020-02-27T20:42:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。