論文の概要: Localizing Firearm Carriers by Identifying Human-Object Pairs
- arxiv url: http://arxiv.org/abs/2005.09329v2
- Date: Wed, 20 May 2020 09:49:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 14:06:23.538816
- Title: Localizing Firearm Carriers by Identifying Human-Object Pairs
- Title(参考訳): 人間と物体の対を識別する銃器キャリアの局在化
- Authors: Abdul Basit, Muhammad Akhtar Munir, Mohsen Ali, Arif Mahmood
- Abstract要約: ある画像では、人間と銃器が別々に検出されます。検出された各人間は、検出された各銃器とペアリングされ、オブジェクトと人間の両方を含む、ペアリングされたバウンディングボックスを作成できます。
ネットワークは、これらのペアリングされたバウンディングボックスを、識別された銃を持った人間に分類するよう訓練されている。
- 参考スコア(独自算出の注目度): 12.425090880770977
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual identification of gunmen in a crowd is a challenging problem, that
requires resolving the association of a person with an object (firearm). We
present a novel approach to address this problem, by defining human-object
interaction (and non-interaction) bounding boxes. In a given image, human and
firearms are separately detected. Each detected human is paired with each
detected firearm, allowing us to create a paired bounding box that contains
both object and the human. A network is trained to classify these
paired-bounding-boxes into human carrying the identified firearm or not.
Extensive experiments were performed to evaluate effectiveness of the
algorithm, including exploiting full pose of the human, hand key-points, and
their association with the firearm. The knowledge of spatially localized
features is key to success of our method by using multi-size proposals with
adaptive average pooling. We have also extended a previously firearm detection
dataset, by adding more images and tagging in extended dataset the
human-firearm pairs (including bounding boxes for firearms and gunmen). The
experimental results ($AP_{hold} = 78.5$) demonstrate effectiveness of the
proposed method.
- Abstract(参考訳): 群衆における銃撃犯の視覚的識別は難しい問題であり、被写体(銃器)との関連を解消する必要がある。
本稿では,人間と対象の相互作用(および非相互作用)のバウンディングボックスを定義することにより,この問題に新たなアプローチを提案する。
ある画像では、人間と銃器が別々に検出される。
検出された各人間は、検出された各銃器とペアリングされ、オブジェクトと人間の両方を含む、ペア化されたバウンディングボックスを作成できる。
ネットワークは、これらのペアドバウンディングボックスを、特定された銃器を運ぶかどうかを人間に分類するように訓練される。
アルゴリズムの有効性を評価するために広範な実験が行われ、人間の完全なポーズ、手指のキーポイント、銃器との関連付けなどが行われた。
空間的局所化特徴の知識は,適応平均プールを用いたマルチサイズ提案を用いることで,本手法の成功の鍵となる。
我々はまた、人間と銃のペア(銃器と銃器のバウンディングボックスを含む)の拡張データセットに、より多くの画像とタグを追加することで、以前の銃器検出データセットを拡張した。
実験結果(ap_{hold} = 78.5$)は,提案手法の有効性を示す。
関連論文リスト
- Detection and Localization of Firearm Carriers in Complex Scenes for
Improved Safety Measures [17.03422574286601]
本稿では,銃器通信事業者の地域化に有用な手がかりを提供する,人と銃器のインタラクション情報を活用する新しいアプローチを提案する。
本手法は,人や銃器を背景から効果的に識別する機構を,関連分野に着目して組み込んだものである。
異なる大きさの入力を処理するために,注目マスク付き対のヒューマン・ファイアアーム・インスタンスをディープネットワークを介してチャネルとして通過し,特徴計算を行う。
論文 参考訳(メタデータ) (2023-09-17T10:50:46Z) - HODN: Disentangling Human-Object Feature for HOI Detection [51.48164941412871]
本稿では,Human and Object Disentangling Network (HODN) を提案し,Human-Object Interaction (HOI) の関係を明示的にモデル化する。
インタラクションに人間的特徴がより寄与していることを考慮し,インタラクションデコーダが人間中心の領域に焦点を当てていることを確認するためのヒューマンガイドリンク手法を提案する。
提案手法は,V-COCOとHICO-Det Linkingデータセットの競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-20T04:12:50Z) - Among Us: Adversarially Robust Collaborative Perception by Consensus [50.73128191202585]
複数のロボットは、シーン(例えば物体)を個人よりも協調的に知覚することができる。
本稿では,未知の攻撃者に対して一般化可能な新しいサンプリングベース防衛戦略であるROBOSACを提案する。
自律運転シナリオにおける協調3次元物体検出の課題に対して,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-16T17:15:25Z) - Explicit Box Detection Unifies End-to-End Multi-Person Pose Estimation [24.973118696495977]
本稿では,ED-Poseと呼ばれる多人数のPose推定のためのExplicit box Detectionを用いたエンドツーエンドフレームワークを提案する。
ヒューマンレベル(グローバル)とキーポイントレベル(ローカル)情報のコンテキスト学習を統一する。
L1回帰損失の完全なエンドツーエンドフレームワークとして、ED-Poseは、同じバックボーンの下で、ヒートマップベースのトップダウンメソッドを初めて上回った。
論文 参考訳(メタデータ) (2023-02-03T08:18:34Z) - HOTR: End-to-End Human-Object Interaction Detection with Transformers [26.664864824357164]
そこで本研究では, HOTRが提唱する, 画像からヒト, オブジェクト, 相互作用> トリプレットの集合を直接予測する新しいフレームワークを提案する。
提案アルゴリズムは,2つのHOI検出ベンチマークにおいて,オブジェクト検出後1ms以下の推論時間で最新の性能を実現する。
論文 参考訳(メタデータ) (2021-04-28T10:10:29Z) - Handgun detection using combined human pose and weapon appearance [0.4141979929350861]
本研究では,武器の外観と人間のポーズ情報を組み合わせた新しい手法を提案する。
その結果, 組み合わせモデルにより, 従来よりも4.23点から18.9点のAPポイントを達成し, ハンドガン検出精度が向上することがわかった。
論文 参考訳(メタデータ) (2020-10-26T17:45:12Z) - DRG: Dual Relation Graph for Human-Object Interaction Detection [65.50707710054141]
人-物間相互作用(HOI)検出の課題に対処する。
既存の方法は、人間と物体の対の相互作用を独立に認識するか、複雑な外観に基づく共同推論を行う。
本稿では,抽象的空間意味表現を活用して,各対象対を記述し,二重関係グラフを用いてシーンの文脈情報を集約する。
論文 参考訳(メタデータ) (2020-08-26T17:59:40Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z) - PPDM: Parallel Point Detection and Matching for Real-time Human-Object
Interaction Detection [85.75935399090379]
本稿では,Human-Object Interaction (HOI) の単一段階検出手法を提案する。
これは、初めてのリアルタイムHOI検出方法である。
論文 参考訳(メタデータ) (2019-12-30T12:00:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。