論文の概要: Image-Pointcloud Fusion based Anomaly Detection using PD-REAL Dataset
- arxiv url: http://arxiv.org/abs/2311.04095v1
- Date: Tue, 7 Nov 2023 16:05:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 14:43:47.631968
- Title: Image-Pointcloud Fusion based Anomaly Detection using PD-REAL Dataset
- Title(参考訳): pd-realデータセットを用いたimage-pointcloud fusionに基づく異常検出
- Authors: Jianjian Qin, Chunzhi Gu, Jun Yu, Chao Zhang
- Abstract要約: PD-REALは3次元領域における非教師なし異常検出(AD)のための新しい大規模データセットである。
ADタスクにおける2Dのみの表現は、照明条件や撮影角度の不確実性により、異常の幾何学的構造を捉えるのに失敗する可能性があるという事実に動機づけられている。
PD-REALは、15のオブジェクトカテゴリのためのPlay-Dohモデルで構成されており、制御された環境での3D情報による潜在的な利益の分析に焦点を当てている。
- 参考スコア(独自算出の注目度): 15.212031255539022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present PD-REAL, a novel large-scale dataset for unsupervised anomaly
detection (AD) in the 3D domain. It is motivated by the fact that 2D-only
representations in the AD task may fail to capture the geometric structures of
anomalies due to uncertainty in lighting conditions or shooting angles. PD-REAL
consists entirely of Play-Doh models for 15 object categories and focuses on
the analysis of potential benefits from 3D information in a controlled
environment. Specifically, objects are first created with six types of
anomalies, such as dent, crack, or perforation, and then photographed under
different lighting conditions to mimic real-world inspection scenarios. To
demonstrate the usefulness of 3D information, we use a commercially available
RealSense camera to capture RGB and depth images. Compared to the existing 3D
dataset for AD tasks, the data acquisition of PD-REAL is significantly cheaper,
easily scalable and easier to control variables. Extensive evaluations with
state-of-the-art AD algorithms on our dataset demonstrate the benefits as well
as challenges of using 3D information. Our dataset can be downloaded from
https://github.com/Andy-cs008/PD-REAL
- Abstract(参考訳): PD-REALは3次元領域における非教師なし異常検出(AD)のための新しい大規模データセットである。
ADタスクにおける2Dのみの表現は、照明条件や撮影角度の不確実性により、異常の幾何学的構造を捉えることができない。
pd-realは15のオブジェクトカテゴリのplay-dohモデルで構成されており、制御された環境での3d情報からの潜在的な利益の分析に焦点を当てている。
具体的には、オブジェクトは最初、デント、ひび割れ、穿孔などの6種類の異常で作成され、その後、異なる照明条件下で撮影され、現実世界の検査シナリオを模倣する。
3D情報の有用性を示すために,市販のRealSenseカメラを用いてRGBと深度画像の撮影を行う。
ADタスクの既存の3Dデータセットと比較して、PD-REALのデータ取得は大幅に安価で、スケーラブルで、変数の制御が容易である。
我々のデータセット上の最先端ADアルゴリズムによる広範囲な評価は、3D情報を使用する際の利点と課題を示している。
私たちのデータセットはhttps://github.com/Andy-cs008/PD-REALからダウンロードできます。
関連論文リスト
- PointAD: Comprehending 3D Anomalies from Points and Pixels for Zero-shot 3D Anomaly Detection [13.60524473223155]
本稿では,未知の物体上の3次元異常を認識するために,CLIPの強力な一般化能力を伝達する新しい手法であるPointADを紹介する。
PointADは、複数の2Dレンダリングに3D異常をレンダリングし、それらを3D空間に投影する。
我々のモデルはRGB情報を直接統合することができ、プラグアンドプレイ方式で3D異常の理解をさらに強化することができる。
論文 参考訳(メタデータ) (2024-10-01T01:40:22Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - Real3D-AD: A Dataset of Point Cloud Anomaly Detection [75.56719157477661]
本稿では,高精度なクラウド異常検出データセットであるReal3D-ADを紹介する。
1,254個の高解像度の3Dアイテムが、各項目に4万から数百万のポイントがあり、Real3D-ADは高精度な3D産業異常検出のための最大のデータセットである。
本稿では,高精度点雲異常検出のためのベースライン手法が存在しないことを明らかにする,Real3D-ADの総合ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-09-23T00:43:38Z) - Digital Twin Tracking Dataset (DTTD): A New RGB+Depth 3D Dataset for
Longer-Range Object Tracking Applications [3.9776693020673677]
デジタルツイン(Digital twin)は、実際のオブジェクトをデジタルオブジェクトで拡張する問題である。
優れたデジタルツインシステムにおける重要なコンポーネントは、リアルタイムで正確な3Dオブジェクト追跡である。
この研究で、Digital Twin Tracking dataset(DTTD)と呼ばれる新しいRGB-Dデータセットを作成します。
論文 参考訳(メタデータ) (2023-02-12T20:06:07Z) - Bridged Transformer for Vision and Point Cloud 3D Object Detection [92.86856146086316]
Bridged Transformer (BrT) は、3Dオブジェクト検出のためのエンドツーエンドアーキテクチャである。
BrTは3Dオブジェクトと2Dオブジェクトのバウンディングボックスを、ポイントとイメージパッチの両方から識別する。
BrTがSUN RGB-DおよびScanNetV2データセットの最先端手法を上回ることを示す。
論文 参考訳(メタデータ) (2022-10-04T05:44:22Z) - 3D-VField: Learning to Adversarially Deform Point Clouds for Robust 3D
Object Detection [111.32054128362427]
安全クリティカルな環境では、アウト・オブ・ディストリビューションとロングテールサンプルの堅牢性は、危険な問題を回避するのに不可欠である。
トレーニング中の変形点雲を考慮した3次元物体検出器の領域外データへの一般化を著しく改善する。
我々は、リアルに損傷を受けた稀な車の合成データセットであるCrashDを提案し、共有する。
論文 参考訳(メタデータ) (2021-12-09T08:50:54Z) - SF-UDA$^{3D}$: Source-Free Unsupervised Domain Adaptation for
LiDAR-Based 3D Object Detection [66.63707940938012]
LiDAR点雲のみに基づく3Dオブジェクト検出器は、現代のストリートビューベンチマークの最先端を保っている。
本稿ではSF-UDA$3D$で最先端のPointRCNN 3D検出器をドメイン適応し、アノテーションのないドメインをターゲットにする。
論文 参考訳(メタデータ) (2020-10-16T08:44:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。