論文の概要: Contraband Materials Detection Within Volumetric 3D Computed Tomography
Baggage Security Screening Imagery
- arxiv url: http://arxiv.org/abs/2012.11753v1
- Date: Mon, 21 Dec 2020 23:48:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:40:37.292363
- Title: Contraband Materials Detection Within Volumetric 3D Computed Tomography
Baggage Security Screening Imagery
- Title(参考訳): 容積3次元ct手荷物検診画像におけるコントラバンド材料検出
- Authors: Qian Wang, Toby P. Breckon
- Abstract要約: 材料シグネチャに基づく3次元コントラバンド物質検出にDeep Neural Networksを適用することを提案する。
まず,3D U-Netなどの3D CNNに基づくセマンティックセマンティックセグメンテーションアルゴリズムとその変種について検討する。
体積3次元CTデータの元の密度密度表現形式とは対照的に,CTボリュームをスパース点雲に変換することを提案する。
- 参考スコア(独自算出の注目度): 29.253322915780362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic prohibited object detection within 2D/3D X-ray Computed Tomography
(CT) has been studied in literature to enhance the aviation security screening
at checkpoints. Deep Convolutional Neural Networks (CNN) have demonstrated
superior performance in 2D X-ray imagery. However, there exists very limited
proof of how deep neural networks perform in materials detection within
volumetric 3D CT baggage screening imagery. We attempt to close this gap by
applying Deep Neural Networks in 3D contraband substance detection based on
their material signatures. Specifically, we formulate it as a 3D semantic
segmentation problem to identify material types for all voxels based on which
contraband materials can be detected. To this end, we firstly investigate 3D
CNN based semantic segmentation algorithms such as 3D U-Net and its variants.
In contrast to the original dense representation form of volumetric 3D CT data,
we propose to convert the CT volumes into sparse point clouds which allows the
use of point cloud processing approaches such as PointNet++ towards more
efficient processing. Experimental results on a publicly available dataset (NEU
ATR) demonstrate the effectiveness of both 3D U-Net and PointNet++ in materials
detection in 3D CT imagery for baggage security screening.
- Abstract(参考訳): 2D/3D X線CT(CT)における物体の自動検出は、チェックポイントでの航空安全スクリーニングを強化するために文献で研究されている。
深部畳み込みニューラルネットワーク(CNN)は2次元X線画像において優れた性能を示した。
しかし、深層ニューラルネットワークが3次元CTバッグスキャン画像内の物質検出でどのように機能するかは、非常に限定的な証拠が存在する。
本稿では,このギャップを3次元コントラバンド物質検出にディープニューラルネットワークを適用することで解消する。
具体的には、3次元セマンティックセグメンテーション問題として定式化し、コントラバンド材料を検出可能な全てのボクセルの材料タイプを特定する。
そこで本研究では,まず3D U-Netなどの3次元CNNに基づくセマンティックセマンティックセマンティクスアルゴリズムについて検討する。
従来の3次元CTデータの高密度表現形式とは対照的に,我々はCTボリュームを疎点クラウドに変換し,ポイントネット++などの点クラウド処理アプローチをより効率的な処理に活用することを提案する。
公開データセット(NEU ATR)の実験結果は,3次元CT画像の材料検出における3次元U-NetとPointNet++の有効性を示した。
関連論文リスト
- CN-RMA: Combined Network with Ray Marching Aggregation for 3D Indoors Object Detection from Multi-view Images [11.152821406076486]
CN-RMAは多視点画像から3次元屋内物体を検出する新しい手法である。
多視点画像からの3次元物体検出における最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-07T03:59:47Z) - Bridged Transformer for Vision and Point Cloud 3D Object Detection [92.86856146086316]
Bridged Transformer (BrT) は、3Dオブジェクト検出のためのエンドツーエンドアーキテクチャである。
BrTは3Dオブジェクトと2Dオブジェクトのバウンディングボックスを、ポイントとイメージパッチの両方から識別する。
BrTがSUN RGB-DおよびScanNetV2データセットの最先端手法を上回ることを示す。
論文 参考訳(メタデータ) (2022-10-04T05:44:22Z) - Simultaneous Alignment and Surface Regression Using Hybrid 2D-3D
Networks for 3D Coherent Layer Segmentation of Retina OCT Images [33.99874168018807]
本研究では,ハイブリッド2D-3D畳み込みニューラルネットワーク(CNN)を用いた新しいフレームワークを提案し,OCTから連続した3次元網膜層表面を得る。
本フレームワークは, 層分割精度とクロスBスキャン3D連続性の両方の観点から, 最先端の2D手法よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2022-03-04T15:55:09Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z) - From Multi-View to Hollow-3D: Hallucinated Hollow-3D R-CNN for 3D Object
Detection [101.20784125067559]
本稿では,3次元物体検出の問題に対処するため,Halucinated Hollow-3D R-CNNという新しいアーキテクチャを提案する。
本稿では,まず,視点ビューと鳥眼ビューに点雲を逐次投影することで,多視点特徴を抽出する。
3Dオブジェクトは、新しい階層型Voxel RoIプール操作でボックスリファインメントモジュールを介して検出される。
論文 参考訳(メタデータ) (2021-07-30T02:00:06Z) - FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection [81.79171905308827]
3Dアノテーションを使わずに点雲中の車両を検出するためのフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
2Dバウンディングボックスとスパースポイントクラウドだけで、3D空間内のオブジェクトを正確に検出できます。
論文 参考訳(メタデータ) (2021-05-17T07:29:55Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Multi-Class 3D Object Detection Within Volumetric 3D Computed Tomography
Baggage Security Screening Imagery [19.62794187456967]
我々は、一つの統合されたフレームワークを用いて、複数の対象カテゴリの関心事を検出することを検討する。
3D RetinaNetと一連の好ましい戦略を組み合わせることで、5つのオブジェクトクラスの平均平均精度(mAP)は65.3%に達する。
論文 参考訳(メタデータ) (2020-08-03T21:54:14Z) - On the Evaluation of Prohibited Item Classification and Detection in
Volumetric 3D Computed Tomography Baggage Security Screening Imagery [19.62794187456967]
我々は,2次元X線画像からボリューム3次元CTバッグセキュリティスクリーニング画像への自動禁止項目検出の可能性を評価する。
我々は3D Convolutional Neural Neworks(CNN)とRetinaNetやFaster R-CNNといった一般的なオブジェクト検出フレームワークを活用しています。
論文 参考訳(メタデータ) (2020-03-27T20:17:58Z) - SMOKE: Single-Stage Monocular 3D Object Detection via Keypoint
Estimation [3.1542695050861544]
3Dの向きとオブジェクトの変換を推定することは、インフラストラクチャレスの自律走行と運転に不可欠である。
SMOKEと呼ばれる新しい3次元オブジェクト検出手法を提案する。
構造的単純さにもかかわらず、提案するSMOKEネットワークは、KITTIデータセット上の既存のモノクル3D検出方法よりも優れている。
論文 参考訳(メタデータ) (2020-02-24T08:15:36Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。