論文の概要: Point Cloud Novelty Detection Based on Latent Representations of a General Feature Extractor
- arxiv url: http://arxiv.org/abs/2410.09861v1
- Date: Sun, 13 Oct 2024 14:42:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 04:32:54.093366
- Title: Point Cloud Novelty Detection Based on Latent Representations of a General Feature Extractor
- Title(参考訳): 一般特徴指数の潜在表現に基づく点雲の新規性検出
- Authors: Shizuka Akahori, Satoshi Iizuka, Ken Mawatari, Kazuhiro Fukui,
- Abstract要約: 本稿では, 汎用クラウド特徴抽出器と一級分類器を併用した, 効率的な非教師なし3次元点雲ノベルティ検出手法を提案する。
従来の3次元座標空間の再構成誤差測定手法と比較して,形状情報を凝縮した潜在表現を利用する。
一般特徴抽出器は未知のカテゴリの形状特徴を抽出し,オートエンコーダの再学習の必要性を排除し,計算負担を軽減できることを確認した。
- 参考スコア(独自算出の注目度): 9.11903730548763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an effective unsupervised 3D point cloud novelty detection approach, leveraging a general point cloud feature extractor and a one-class classifier. The general feature extractor consists of a graph-based autoencoder and is trained once on a point cloud dataset such as a mathematically generated fractal 3D point cloud dataset that is independent of normal/abnormal categories. The input point clouds are first converted into latent vectors by the general feature extractor, and then one-class classification is performed on the latent vectors. Compared to existing methods measuring the reconstruction error in 3D coordinate space, our approach utilizes latent representations where the shape information is condensed, which allows more direct and effective novelty detection. We confirm that our general feature extractor can extract shape features of unseen categories, eliminating the need for autoencoder re-training and reducing the computational burden. We validate the performance of our method through experiments on several subsets of the ShapeNet dataset and demonstrate that our latent-based approach outperforms the existing methods.
- Abstract(参考訳): 本稿では, 汎用クラウド特徴抽出器と一級分類器を併用した, 効率的な非教師なし3次元点雲ノベルティ検出手法を提案する。
一般的な特徴抽出器は、グラフベースのオートエンコーダからなり、正規/異常カテゴリに依存しない数学的に生成されたフラクタル3Dポイントクラウドデータセットのようなポイントクラウドデータセットで一度訓練される。
入力点雲は、まず一般特徴抽出器によって潜時ベクトルに変換し、次いで潜時ベクトル上で一級分類を行う。
従来の3次元座標空間の再構成誤差測定手法と比較して,形状情報を凝縮した潜在表現を用いて,より直接的かつ効果的な新規性検出を可能にする。
一般特徴抽出器は未知のカテゴリの形状特徴を抽出し,オートエンコーダの再学習の必要性を排除し,計算負担を軽減できることを確認した。
本研究では,ShapeNetデータセットのいくつかのサブセットで実験を行い,提案手法の有効性を検証する。
関連論文リスト
- Toward Unsupervised 3D Point Cloud Anomaly Detection using Variational
Autoencoder [10.097126085083827]
本稿では3次元点雲に対するエンドツーエンドの教師なし異常検出フレームワークを提案する。
本稿では,3次元点群に適応した深部変分自動エンコーダに基づく非教師なし異常検出ネットワークと,特に3次元点群に対する異常スコアを提案する。
論文 参考訳(メタデータ) (2023-04-07T00:02:37Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - Learning Local Displacements for Point Cloud Completion [93.54286830844134]
本稿では,3次元点雲として表現された部分的スキャンからオブジェクトとセマンティックシーンを補完する手法を提案する。
アーキテクチャはエンコーダ-デコーダ構造内で連続的に使用される3つの新しいレイヤに依存している。
オブジェクトと屋内の両方のシーン完了タスクにおけるアーキテクチャの評価を行い、最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-30T18:31:37Z) - Upsampling Autoencoder for Self-Supervised Point Cloud Learning [11.19408173558718]
人間のアノテーションを使わずに、ポイントクラウド学習のための自己教師付き事前学習モデルを提案する。
アップサンプリング操作は、ポイントクラウドの高レベルセマンティック情報と低レベル幾何情報の両方を捕捉することをネットワークに促す。
我々のUAEは、形状分類、部分分割、点雲アップサンプリングタスクにおいて、従来の最先端手法よりも優れています。
論文 参考訳(メタデータ) (2022-03-21T07:20:37Z) - Unsupervised Representation Learning for 3D Point Cloud Data [66.92077180228634]
我々は、教師なしのポイントクラウド学習に対して、シンプルで効果的なアプローチを提案する。
特に、原点雲の優れたコントラストバージョンを生成する非常に有用な変換を同定する。
本研究では,3次元オブジェクト分類,形状部分分割,シーン分割の3つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2021-10-13T10:52:45Z) - VIN: Voxel-based Implicit Network for Joint 3D Object Detection and
Segmentation for Lidars [12.343333815270402]
統合ニューラルネットワーク構造は、ジョイント3Dオブジェクト検出とポイントクラウドセグメンテーションのために提示される。
私たちは、検出ラベルとセグメンテーションラベルの両方からの豊富な監視を活用しています。
論文 参考訳(メタデータ) (2021-07-07T02:16:20Z) - OMNet: Learning Overlapping Mask for Partial-to-Partial Point Cloud
Registration [31.108056345511976]
OMNetは、部分から部分へのポイントクラウド登録のためのグローバル機能ベースの反復ネットワークです。
マスクを粗雑に学習し,重複しない領域を拒絶し,部分から部分への登録を同一形状の登録に変換する。
論文 参考訳(メタデータ) (2021-03-01T11:59:59Z) - 3D Object Classification on Partial Point Clouds: A Practical
Perspective [91.81377258830703]
点雲は3次元オブジェクト分類において一般的な形状表現である。
本稿では,任意のポーズの下でオブジェクトインスタンスの部分点雲を分類する実践的な設定を提案する。
本稿では,アライメント分類手法による新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-18T04:00:56Z) - PointManifold: Using Manifold Learning for Point Cloud Classification [5.705680763604835]
本稿では,グラフニューラルネットワークと多様体学習に基づく点雲分類手法を提案する。
本稿では,平面上の連続性を考慮し,点雲の特徴を埋め込むために,多様体学習アルゴリズムを用いる。
実験により、提案した点雲分類法は90.2%の平均クラス精度(mA)と93.2%の総合クラス精度(oA)が得られることが示された。
論文 参考訳(メタデータ) (2020-10-14T16:28:19Z) - Refinement of Predicted Missing Parts Enhance Point Cloud Completion [62.997667081978825]
点雲完了は、部分的な観測から3次元形状の点集合表現を用いて完全な幾何学を予測するタスクである。
従来のアプローチでは、不完全点集合によって供給されるエンコーダ・デコーダモデルにより、点雲全体を直接推定するニューラルネットワークが提案されていた。
本稿では、欠落した幾何を計算し、既知の入力と予測点クラウドを融合することに焦点を当てたエンドツーエンドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-10-08T22:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。