論文の概要: DIFEM: Key-points Interaction based Feature Extraction Module for Violence Recognition in Videos
- arxiv url: http://arxiv.org/abs/2412.05386v1
- Date: Fri, 06 Dec 2024 19:25:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:55:31.259336
- Title: DIFEM: Key-points Interaction based Feature Extraction Module for Violence Recognition in Videos
- Title(参考訳): DIFEM:ビデオにおけるビオレンス認識のためのキーポイントインタラクションに基づく特徴抽出モジュール
- Authors: Himanshu Mittal, Suvramalya Basak, Anjali Gautam,
- Abstract要約: そこで本研究では,人間の骨格キーポイントを有効利用して暴力の性質を捉える手法を提案する。
我々の手法の核心は、速度や関節交叉といった特徴を捉える新しい動的相互作用特徴抽出モジュール(DIFEM)である。
DIFEMによって抽出された特徴により、ランダムフォレスト、決定木、AdaBoost、k-Nearest Neighborといった様々な分類アルゴリズムが使用されている。
- 参考スコア(独自算出の注目度): 6.375350222633163
- License:
- Abstract: Violence detection in surveillance videos is a critical task for ensuring public safety. As a result, there is increasing need for efficient and lightweight systems for automatic detection of violent behaviours. In this work, we propose an effective method which leverages human skeleton key-points to capture inherent properties of violence, such as rapid movement of specific joints and their close proximity. At the heart of our method is our novel Dynamic Interaction Feature Extraction Module (DIFEM) which captures features such as velocity, and joint intersections, effectively capturing the dynamics of violent behavior. With the features extracted by our DIFEM, we use various classification algorithms such as Random Forest, Decision tree, AdaBoost and k-Nearest Neighbor. Our approach has substantially lesser amount of parameter expense than the existing state-of-the-art (SOTA) methods employing deep learning techniques. We perform extensive experiments on three standard violence recognition datasets, showing promising performance in all three datasets. Our proposed method surpasses several SOTA violence recognition methods.
- Abstract(参考訳): 監視ビデオにおける暴力検出は、公共の安全を確保するための重要な課題である。
その結果,暴力行為を自動的に検出するための効率的で軽量なシステムの必要性が高まっている。
本研究では,人間の骨格キーポイントを有効利用して,特定の関節の迅速移動や近接移動などの暴力の性質を捉える手法を提案する。
我々の手法の核心は、速度や関節交叉といった特徴を捉え、暴力行動のダイナミクスを効果的に捉える、新しい動的相互作用特徴抽出モジュール(DIFEM)である。
DIFEMによって抽出された特徴により、ランダムフォレスト、決定木、AdaBoost、k-Nearest Neighborといった様々な分類アルゴリズムが使用されている。
本手法は, ディープラーニング技術を用いた既存の最先端技術(SOTA)手法に比べて, パラメータコストを大幅に削減する。
3つの標準暴力認識データセットに対して広範な実験を行い、すべての3つのデータセットで有望なパフォーマンスを示す。
提案手法は、複数のSOTA暴力認識手法を超越している。
関連論文リスト
- Streamlining Video Analysis for Efficient Violence Detection [1.444946491007292]
本稿では,監視カメラが捉えたビデオフレームにおける自動暴力検出の課題に対処する。
本稿では,3次元畳み込みニューラルネットワーク(3D CNN)に基づくモデルX3Dを用いてこの問題に対処する手法を提案する。
論文 参考訳(メタデータ) (2024-11-29T06:32:36Z) - ACE : Off-Policy Actor-Critic with Causality-Aware Entropy Regularization [52.5587113539404]
因果関係を考慮したエントロピー(entropy)という用語を導入し,効率的な探索を行うための潜在的影響の高いアクションを効果的に識別し,優先順位付けする。
提案アルゴリズムであるACE:Off-policy Actor-critic with Causality-aware Entropy regularizationは,29種類の連続制御タスクに対して,大幅な性能上の優位性を示す。
論文 参考訳(メタデータ) (2024-02-22T13:22:06Z) - Improving Video Violence Recognition with Human Interaction Learning on
3D Skeleton Point Clouds [88.87985219999764]
我々は骨格点の新たな視点からビデオ暴力認識法を開発した。
まず、ビデオから抽出した人間の配列から3Dスケルトン点雲を定式化する。
そして、これらの3Dスケルトン点雲上で相互作用学習を行う。
論文 参考訳(メタデータ) (2023-08-26T12:55:18Z) - Towards Efficient and Domain-Agnostic Evasion Attack with
High-dimensional Categorical Inputs [33.36532022853583]
本研究の目的は,ドメインに依存しない領域において,高次元のカテゴリー入力を持つ摂動を攻撃可能な逆方向を探索することである。
提案手法は,マルチアームバンディットプログラミングにおいて,各カテゴリ機能の変更を腕を引くものとして扱う。
本研究は,高次元カテゴリ入力を用いた分類システムの逆脆弱性評価におけるFEATの適用性をさらに示唆するものである。
論文 参考訳(メタデータ) (2022-12-13T18:45:00Z) - Detecting Violence in Video Based on Deep Features Fusion Technique [0.30458514384586394]
本研究では、2つの畳み込みニューラルネットワーク(CNN)の融合技術を用いて暴力を検出する新しい方法を提案する。
提案手法の性能は,検出精度の観点から3つの標準ベンチマークデータセットを用いて評価した。
論文 参考訳(メタデータ) (2022-04-15T12:51:20Z) - Learning Multi-Granular Spatio-Temporal Graph Network for Skeleton-based
Action Recognition [49.163326827954656]
骨格に基づく行動分類のための新しい多言語時空間グラフネットワークを提案する。
2つの枝の枝からなるデュアルヘッドグラフネットワークを開発し、少なくとも2つの時間分解能を抽出する。
3つの大規模データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-08-10T09:25:07Z) - Group-Skeleton-Based Human Action Recognition in Complex Events [15.649778891665468]
本稿では,複合イベントにおけるグループ骨格に基づく人間行動認識手法を提案する。
本手法はまず,マルチスケール空間時間グラフ畳み込みネットワーク(MS-G3D)を用いて,複数の人物から骨格の特徴を抽出する。
HiEveデータセットの結果から,本手法は他の最先端手法と比較して優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-11-26T13:19:14Z) - Towards Understanding the Adversarial Vulnerability of Skeleton-based
Action Recognition [133.35968094967626]
骨格に基づく行動認識は、動的状況への強い適応性から注目を集めている。
ディープラーニング技術の助けを借りて、かなり進歩し、現在、良識のある環境で約90%の精度を達成している。
異なる対角的環境下での骨格に基づく行動認識の脆弱性に関する研究はいまだ研究されていない。
論文 参考訳(メタデータ) (2020-05-14T17:12:52Z) - Gabriella: An Online System for Real-Time Activity Detection in
Untrimmed Security Videos [72.50607929306058]
本研究では,未トリミングされたセキュリティビデオ上でのアクティビティ検出をリアルタイムに行うオンラインシステムを提案する。
提案手法は, チューブレット抽出, 活性分類, オンラインチューブレットマージの3段階からなる。
提案手法の有効性を,100fps(100fps)と最新技術による性能評価で実証した。
論文 参考訳(メタデータ) (2020-04-23T22:20:10Z) - Towards High Performance Human Keypoint Detection [87.1034745775229]
文脈情報は人体構成や見えないキーポイントを推論する上で重要な役割を担っている。
そこで我々は,空間とチャネルのコンテキスト情報を効率的に統合するカスケードコンテキストミキサー(CCM)を提案する。
CCMの表現能力を最大化するために、我々は、強陰性な人検出マイニング戦略と共同訓練戦略を開発する。
検出精度を向上させるために,キーポイント予測を後処理するためのいくつかのサブピクセル改良手法を提案する。
論文 参考訳(メタデータ) (2020-02-03T02:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。