論文の概要: Background Adaptive Faster R-CNN for Semi-Supervised Convolutional
Object Detection of Threats in X-Ray Images
- arxiv url: http://arxiv.org/abs/2010.01202v1
- Date: Fri, 2 Oct 2020 21:05:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 02:00:28.722681
- Title: Background Adaptive Faster R-CNN for Semi-Supervised Convolutional
Object Detection of Threats in X-Ray Images
- Title(参考訳): 背景適応型高速R-CNNによるX線画像の脅威検出
- Authors: John B. Sigman, Gregory P. Spell, Kevin J Liang, and Lawrence Carin
- Abstract要約: 我々は、バックグラウンド適応型高速R-CNNと呼ばれる脅威認識のための半教師付きアプローチを提案する。
本手法は,ディープラーニング分野からのドメイン適応手法を用いた2段階物体検出器の訓練手法である。
2つのドメイン識別器(1つはオブジェクト提案を識別し、もう1つは画像特徴を識別する)は、ドメイン固有の情報を符号化するのを防ぐために敵対的に訓練される。
これにより、手作業の背景から抽出した特徴の統計と実世界のデータとを一致させることで、脅威検出の誤報率を低減することができる。
- 参考スコア(独自算出の注目度): 64.39996451133268
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, progress has been made in the supervised training of Convolutional
Object Detectors (e.g. Faster R-CNN) for threat recognition in carry-on luggage
using X-ray images. This is part of the Transportation Security
Administration's (TSA's) mission to protect air travelers in the United States.
While more training data with threats may reliably improve performance for this
class of deep algorithm, it is expensive to stage in realistic contexts. By
contrast, data from the real world can be collected quickly with minimal cost.
In this paper, we present a semi-supervised approach for threat recognition
which we call Background Adaptive Faster R-CNN. This approach is a training
method for two-stage object detectors which uses Domain Adaptation methods from
the field of deep learning. The data sources described earlier make two
"domains": a hand-collected data domain of images with threats, and a
real-world domain of images assumed without threats. Two domain discriminators,
one for discriminating object proposals and one for image features, are
adversarially trained to prevent encoding domain-specific information. Without
this penalty a Convolutional Neural Network (CNN) can learn to identify domains
based on superficial characteristics, and minimize a supervised loss function
without improving its ability to recognize objects. For the hand-collected
data, only object proposals and image features from backgrounds are used. The
losses for these domain-adaptive discriminators are added to the Faster R-CNN
losses of images from both domains. This can reduce threat detection false
alarm rates by matching the statistics of extracted features from
hand-collected backgrounds to real world data. Performance improvements are
demonstrated on two independently-collected datasets of labeled threats.
- Abstract(参考訳): 近年,x線画像を用いた搬送荷物の脅威認識のための畳み込み物体検出器(例えばr-cnn)の教師訓練が進められている。
これは、米国における航空旅行者を保護するための運輸保安局(TSA)のミッションの一部である。
脅威を伴うトレーニングデータが増えることで、このクラスのディープアルゴリズムのパフォーマンスが確実に向上する可能性があるが、現実的なコンテキストでのステージングは高価である。
対照的に、現実世界のデータは最小限のコストで迅速に収集できる。
本稿では,背景適応高速r-cnnと呼ぶ脅威認識のための半教師付き手法を提案する。
本手法は,ディープラーニング分野からのドメイン適応手法を用いた2段階物体検出器の訓練手法である。
前述のデータソースは、2つの"ドメイン"を作る: 脅威を伴うイメージのハンドコンパイルされたデータドメインと、脅威なしで仮定されるイメージの現実世界ドメインである。
2つのドメイン識別器、1つはオブジェクトの提案を識別し、もう1つは画像の特徴を識別する。
このペナルティがなければ、畳み込みニューラルネットワーク(cnn)は、表面的特性に基づいてドメインを識別し、オブジェクトを認識する能力を向上させることなく教師付き損失関数を最小化することができる。
手作業のデータについては、背景からのオブジェクトの提案と画像の特徴のみを使用する。
これらのドメイン適応型識別器の損失は、両方のドメインからのイメージの高速なR-CNN損失に追加される。
これにより、手収集された背景から抽出された特徴の統計を実世界データにマッチさせることで、脅威検出の誤報率を低減できる。
ラベル付き脅威の2つの独立したデータセットでパフォーマンス改善が実証される。
関連論文リスト
- SiamSeg: Self-Training with Contrastive Learning for Unsupervised Domain Adaptation Semantic Segmentation in Remote Sensing [14.007392647145448]
UDAは、ラベル付きソースドメインデータをトレーニングしながら、ラベルなしのターゲットドメインデータからモデルを学習することを可能にする。
コントラスト学習を UDA に統合し,セマンティック情報を取得する能力を向上させることを提案する。
我々のSimSegメソッドは既存の手法より優れ、最先端の結果が得られます。
論文 参考訳(メタデータ) (2024-10-17T11:59:39Z) - Detect, Augment, Compose, and Adapt: Four Steps for Unsupervised Domain
Adaptation in Object Detection [7.064953237013352]
教師なし領域適応(Unsupervised domain adapt、UDA)は、アノテートされたデータなしで、ソース学習された検出器を対象領域に適応させる際に、オブジェクト検出において重要な役割を果たす。
自己超越性を活用し,ソースとターゲットデータを同時に訓練する,新しい,効果的な4段階のUDA手法を提案する。
提案手法は最先端性能を実現し,平均精度(mAP)を2%以上向上させる。
論文 参考訳(メタデータ) (2023-08-29T14:48:29Z) - Adaptive Face Recognition Using Adversarial Information Network [57.29464116557734]
顔認識モデルは、トレーニングデータがテストデータと異なる場合、しばしば退化する。
本稿では,新たな敵情報ネットワーク(AIN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:14:11Z) - Feature Representation Learning for Unsupervised Cross-domain Image
Retrieval [73.3152060987961]
現在の教師付きクロスドメイン画像検索法は優れた性能が得られる。
データ収集とラベリングのコストは、実際のアプリケーションにおける実践的なデプロイにおいて、難易度の高い障壁を課します。
本稿では,クラス意味認識機能抽出を支援するために,クラスタ単位のコントラスト学習機構を提案する。
論文 参考訳(メタデータ) (2022-07-20T07:52:14Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Appearance Based Deep Domain Adaptation for the Classification of Aerial
Images [0.0]
本稿では、ディープニューラルネットワーク(DNN)を用いたリモートセンシングデータの画素ワイズ分類のためのドメイン適応について述べる。
我々は、ラベル付きデータがソースドメインDSでしか利用できないが、ターゲットドメインDTでは利用できない設定に焦点を当てる。
本手法は,画像がDTの画像のように見えるようにDSから画像に変換する外観適応ネットワーク(AAN)の対角訓練に基づく。
論文 参考訳(メタデータ) (2021-08-17T17:35:28Z) - Seasonal Contrast: Unsupervised Pre-Training from Uncurated Remote
Sensing Data [64.40187171234838]
季節的コントラスト(SeCo)は、リモートセンシング表現のドメイン内事前トレーニングにラベルのないデータを活用するための効果的なパイプラインである。
SeCoは、転送学習を容易にし、再リモートセンシングアプリケーションの急速な進歩を可能にするために公開されます。
論文 参考訳(メタデータ) (2021-03-30T18:26:39Z) - Unsupervised Domain Adaptation from Synthetic to Real Images for
Anchorless Object Detection [0.0]
本稿では,アンカーレス物体検出器に非監視領域適応法を実装した。
私たちの仕事では、合成画像を含むドメイン適応問題のために、最新のアンカーレスアーキテクチャの1つである CenterNet を使用します。
論文 参考訳(メタデータ) (2020-12-15T10:51:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。