論文の概要: Complementary Pseudo Multimodal Feature for Point Cloud Anomaly
Detection
- arxiv url: http://arxiv.org/abs/2303.13194v1
- Date: Thu, 23 Mar 2023 11:52:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 14:37:07.042836
- Title: Complementary Pseudo Multimodal Feature for Point Cloud Anomaly
Detection
- Title(参考訳): ポイントクラウド異常検出のための補完的擬似マルチモーダル特徴
- Authors: Yunkang Cao, Xiaohao Xu, Weiming Shen
- Abstract要約: ポイントクラウド(PCD)異常検出は、将来性のある研究領域として着実に現れる。
本研究では,局所幾何学情報を3次元モードに組み込んだ補足的擬似多重モーダル特徴 (CPMF) を提案する。
実験では、95.15%のイメージレベルのAU-ROCと92.93%のピクセルレベルのProが2Dと3Dのモダリティの特徴を補完する能力を示している。
- 参考スコア(独自算出の注目度): 5.059800023492045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point cloud (PCD) anomaly detection steadily emerges as a promising research
area. This study aims to improve PCD anomaly detection performance by combining
handcrafted PCD descriptions with powerful pre-trained 2D neural networks. To
this end, this study proposes Complementary Pseudo Multimodal Feature (CPMF)
that incorporates local geometrical information in 3D modality using
handcrafted PCD descriptors and global semantic information in the generated
pseudo 2D modality using pre-trained 2D neural networks. For global semantics
extraction, CPMF projects the origin PCD into a pseudo 2D modality containing
multi-view images. These images are delivered to pre-trained 2D neural networks
for informative 2D modality feature extraction. The 3D and 2D modality features
are aggregated to obtain the CPMF for PCD anomaly detection. Extensive
experiments demonstrate the complementary capacity between 2D and 3D modality
features and the effectiveness of CPMF, with 95.15% image-level AU-ROC and
92.93% pixel-level PRO on the MVTec3D benchmark. Code is available on
https://github.com/caoyunkang/CPMF.
- Abstract(参考訳): ポイントクラウド(PCD)異常検出は、将来性のある研究領域として着実に現れる。
本研究の目的は、手作りPCD記述と強力な事前学習型2Dニューラルネットワークを組み合わせることで、PCD異常検出性能を向上させることである。
そこで本研究では,手作りPCD記述子を用いた局所幾何学情報と,事前学習した2Dニューラルネットワークを用いた擬似2Dモーダルにおける大域的意味情報を組み合わせた補足型擬似擬似マルチモーダル特徴(CPMF)を提案する。
グローバルセマンティクス抽出のために、CPMFは原点PCDをマルチビュー画像を含む擬似2次元モダリティに投影する。
これらの画像は、情報的2Dモダリティ特徴抽出のために、事前訓練された2Dニューラルネットワークに配信される。
PCD異常検出のためのCPMFを得るために、3Dおよび2Dモダリティ特徴を集約する。
大規模な実験では、MVTec3Dベンチマークで95.15%の画像レベルのAU-ROCと92.93%のピクセルレベルのProが2Dと3Dのモダリティの特徴の補完能力とCPMFの有効性を示す。
コードはhttps://github.com/caoyunkang/CPMFで入手できる。
関連論文リスト
- OV-Uni3DETR: Towards Unified Open-Vocabulary 3D Object Detection via Cycle-Modality Propagation [67.56268991234371]
OV-Uni3DETRは、様々なシナリオにおける最先端のパフォーマンスを達成し、既存のメソッドを平均6%以上上回っている。
コードと事前訓練されたモデルは、後にリリースされる。
論文 参考訳(メタデータ) (2024-03-28T17:05:04Z) - Decomposing 3D Neuroimaging into 2+1D Processing for Schizophrenia
Recognition [25.80846093248797]
我々は2+1Dフレームワークで3Dデータを処理し、巨大なImageNetデータセット上に事前トレーニングされた強力な2D畳み込みニューラルネットワーク(CNN)ネットワークを利用して3Dニューロイメージング認識を実現することを提案する。
特に3次元磁気共鳴イメージング(MRI)の計測値は、隣接するボクセル位置に応じて2次元スライスに分解される。
グローバルプーリングは、アクティベーションパターンが機能マップ上にわずかに分散されているため、冗長な情報を除去するために適用される。
2次元CNNモデルにより処理されていない3次元の文脈情報を集約するために,チャネルワイドおよびスライスワイズ畳み込みを提案する。
論文 参考訳(メタデータ) (2022-11-21T15:22:59Z) - Dual Multi-scale Mean Teacher Network for Semi-supervised Infection
Segmentation in Chest CT Volume for COVID-19 [76.51091445670596]
CT(Computed tomography)データから肺感染症を自動的に検出することは、COVID-19と戦う上で重要な役割を担っている。
現在の新型コロナウイルス感染症のセグメンテーションのほとんどは、主に3Dシーケンシャルな制約を欠いた2D CT画像に依存している。
既存の3次元CTセグメンテーション法では,3次元ボリュームにおける複数レベルの受容場サイズを達成できない単一スケールの表現に焦点が当てられている。
論文 参考訳(メタデータ) (2022-11-10T13:11:21Z) - PointMCD: Boosting Deep Point Cloud Encoders via Multi-view Cross-modal
Distillation for 3D Shape Recognition [55.38462937452363]
本稿では,教師として事前訓練されたディープイメージエンコーダ,学生としてディープポイントエンコーダを含む多視点クロスモーダル蒸留アーキテクチャを提案する。
複数ビューの視覚的および幾何学的記述子をペアワイズにアライメントすることで、より強力なディープポイントエンコーダを、疲労や複雑なネットワーク修正を伴わずに得ることができる。
論文 参考訳(メタデータ) (2022-07-07T07:23:20Z) - Simultaneous Alignment and Surface Regression Using Hybrid 2D-3D
Networks for 3D Coherent Layer Segmentation of Retina OCT Images [33.99874168018807]
本研究では,ハイブリッド2D-3D畳み込みニューラルネットワーク(CNN)を用いた新しいフレームワークを提案し,OCTから連続した3次元網膜層表面を得る。
本フレームワークは, 層分割精度とクロスBスキャン3D連続性の両方の観点から, 最先端の2D手法よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2022-03-04T15:55:09Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Planar 3D Transfer Learning for End to End Unimodal MRI Unbalanced Data
Segmentation [0.0]
本稿では,事前学習した2次元畳み込みニューラルネットワーク重みを平面3次元カーネルにマッピングする手法を提案する。
提案手法は2次元VGG-16から転送されるエンコーダを備えた平面3Dres-u-netネットワークにより検証される。
論文 参考訳(メタデータ) (2020-11-23T17:11:50Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - Self-supervised Feature Learning by Cross-modality and Cross-view
Correspondences [32.01548991331616]
本稿では,2次元画像特徴と3次元ポイントクラウド特徴の両方を学習するための,自己指導型学習手法を提案する。
注釈付きラベルを使わずに、クロスモダリティとクロスビュー対応を利用する。
学習した2次元特徴と3次元特徴の有効性を5つの異なるタスクで伝達することによって評価する。
論文 参考訳(メタデータ) (2020-04-13T02:57:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。