論文の概要: Dual-view X-ray Detection: Can AI Detect Prohibited Items from Dual-view X-ray Images like Humans?
- arxiv url: http://arxiv.org/abs/2411.18082v1
- Date: Wed, 27 Nov 2024 06:36:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 15:26:44.488541
- Title: Dual-view X-ray Detection: Can AI Detect Prohibited Items from Dual-view X-ray Images like Humans?
- Title(参考訳): デュアルビューX線検出:AIは人間のようなデュアルビューX線画像から禁止アイテムを検出できるか?
- Authors: Renshuai Tao, Haoyu Wang, Yuzhe Guo, Hairong Chen, Li Zhang, Xianglong Liu, Yunchao Wei, Yao Zhao,
- Abstract要約: 大規模デュアルビューX線(LDXray)を導入し,12のカテゴリで353,646個のインスタンスで構成されている。
デュアルビュー検出におけるヒューマンインテリジェンスをエミュレートするために,補助ビュー拡張ネットワーク(AENet)を提案する。
LDXrayデータセットの実験では、デュアルビュー機構が検出性能を大幅に向上することを示した。
- 参考スコア(独自算出の注目度): 78.26435264182763
- License:
- Abstract: To detect prohibited items in challenging categories, human inspectors typically rely on images from two distinct views (vertical and side). Can AI detect prohibited items from dual-view X-ray images in the same way humans do? Existing X-ray datasets often suffer from limitations, such as single-view imaging or insufficient sample diversity. To address these gaps, we introduce the Large-scale Dual-view X-ray (LDXray), which consists of 353,646 instances across 12 categories, providing a diverse and comprehensive resource for training and evaluating models. To emulate human intelligence in dual-view detection, we propose the Auxiliary-view Enhanced Network (AENet), a novel detection framework that leverages both the main and auxiliary views of the same object. The main-view pipeline focuses on detecting common categories, while the auxiliary-view pipeline handles more challenging categories using ``expert models" learned from the main view. Extensive experiments on the LDXray dataset demonstrate that the dual-view mechanism significantly enhances detection performance, e.g., achieving improvements of up to 24.7% for the challenging category of umbrellas. Furthermore, our results show that AENet exhibits strong generalization across seven different detection models for X-ray Inspection
- Abstract(参考訳): 厳しいカテゴリーで禁止されたアイテムを検出するために、人間の検査官は通常、2つの異なる視点(垂直方向と横方向)の画像に依存する。
AIは、人間がするのと同じように、デュアルビューのX線画像から禁止されたアイテムを検出できるのか?
既存のX線データセットは、シングルビューイメージングやサンプルの多様性の不足といった制限に悩まされることが多い。
これらのギャップに対処するため、12カテゴリにわたる353,646インスタンスからなる大規模デュアルビューX線(LDXray)を導入し、モデルのトレーニングと評価のための多種多様な総合的なリソースを提供する。
二重視点検出における人間の知能をエミュレートするために,同一物体の主観と補助視の両方を活用する新しい検出フレームワークである補助視拡張ネットワーク (AENet) を提案する。
メインビューパイプラインは共通カテゴリの検出に重点を置いているが、補助ビューパイプラインは、メインビューから学んだ‘専門家モデル’を使って、より困難なカテゴリを処理する。
LDXrayデータセットの大規模な実験により、デュアルビュー機構は検出性能を著しく向上させ、例えば傘の挑戦的なカテゴリーで最大24.7%の改善を達成している。
さらに, この結果から, AENetはX線検査の7つの異なる検出モデルにまたがって, 強い一般化を示すことが明らかとなった。
関連論文リスト
- BGM: Background Mixup for X-ray Prohibited Items Detection [75.58709178012502]
本稿では,X線画像固有の特徴を活かして,禁止項目検出に適した新しいデータ拡張手法を提案する。
1) X線透過画像: 反射光画像とは異なり、透過X線画素は、撮像経路に沿った複数の材料からの合成情報を表す。
本稿では,セキュリティスクリーニングにおけるアイテム検出の禁止を目的とした,単純かつ効果的なX線画像強調手法であるバックグラウンドミキサップ(BGM)を提案する。
論文 参考訳(メタデータ) (2024-11-30T12:26:55Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Dual-Level Boost Network for Long-Tail Prohibited Items Detection in X-ray Security Inspection [81.11400642272976]
X線検査における禁止項目の長期分布は,検出モデルにとって大きな課題となる。
我々は,X線セキュリティスクリーニングにおけるこれらの課題を克服するために,DBNet(Dual-level Boost Network)を提案する。
提案手法では,(1) X線画像の特徴にインスパイアされた,ポアソンブレンディングを用いた特定のデータ拡張戦略を導入し,データ不均衡を効果的に軽減できるレアアイテムのリアルな合成例を生成する。
論文 参考訳(メタデータ) (2024-11-27T06:13:56Z) - Open-Vocabulary X-ray Prohibited Item Detection via Fine-tuning CLIP [6.934570446284497]
蒸留をベースとしたオープン語彙オブジェクト検出タスクをX線セキュリティ検査領域に導入する。
検知器が訓練された基準カテゴリを超えた、新しい禁止アイテムカテゴリを検出することを目的としている。
X線機能アダプタをOVODフレームワーク内のCLIPに適用し、OVXDモデルを開発する。
論文 参考訳(メタデータ) (2024-06-16T14:42:52Z) - GenImage: A Million-Scale Benchmark for Detecting AI-Generated Image [28.38575401686718]
我々は、100万組のAI生成フェイクイメージと実際の画像の収集を含むGenImageデータセットを紹介した。
この利点は、GenImageで訓練された検出器が徹底的な評価を行い、多様な画像に適用可能であることを示すことである。
本研究では,本データセットの包括的解析を行い,実世界のシナリオに類似した検出手法を評価するための2つの課題を提案する。
論文 参考訳(メタデータ) (2023-06-14T15:21:09Z) - StudyFormer : Attention-Based and Dynamic Multi View Classifier for
X-ray images [0.0]
本稿では,X線画像分類の性能向上のために,複数の視点からの情報を組み合わせる新しい手法を提案する。
我々のアプローチは、各ビューから特徴マップを抽出するために畳み込みニューラルネットワークを使用し、次にビジョントランスフォーマーを用いて実装されたアテンションメカニズムを用いている。
結果として得られたモデルは41のラベルでマルチラベルの分類を実行でき、シングルビューモデルと従来のマルチビューの分類アーキテクチャの両方を上回っている。
論文 参考訳(メタデータ) (2023-02-23T08:03:38Z) - Over-sampling De-occlusion Attention Network for Prohibited Items
Detection in Noisy X-ray Images [35.35752470993847]
セキュリティ検査は、スーツケースの個人持ち物のX線スキャンです。
一般的な画像認識データセットを通じてトレーニングされた従来のCNNベースのモデルは、このシナリオで十分なパフォーマンスを達成できない。
新規な脱閉塞注意モジュールと新しいオーバーサンプリングトレーニング戦略からなるオーバーサンプリング脱閉塞注意ネットワーク(DOAM-O)を提案する。
論文 参考訳(メタデータ) (2021-03-01T07:17:37Z) - Deep Mining External Imperfect Data for Chest X-ray Disease Screening [57.40329813850719]
我々は、外部のCXRデータセットを組み込むことで、不完全なトレーニングデータにつながると論じ、課題を提起する。
本研究は,多ラベル病分類問題を重み付き独立二分課題として分類する。
我々のフレームワークは、ドメインとラベルの相違を同時にモデル化し、対処し、優れた知識マイニング能力を実現する。
論文 参考訳(メタデータ) (2020-06-06T06:48:40Z) - Occluded Prohibited Items Detection: an X-ray Security Inspection
Benchmark and De-occlusion Attention Module [50.75589128518707]
我々はOPIXrayというセキュリティ検査のための最初の高品質なオブジェクト検出データセットをコントリビュートする。
OPIXrayは、空港のプロの検査官が手動で注記した「カッター」に焦点をあてた。
本稿では,プラグイン・アンド・プレイモジュールであるデオクルージョン・アテンション・モジュール(DOAM)を提案する。
論文 参考訳(メタデータ) (2020-04-18T16:10:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。