論文の概要: CUE-Net: Violence Detection Video Analytics with Spatial Cropping, Enhanced UniformerV2 and Modified Efficient Additive Attention
- arxiv url: http://arxiv.org/abs/2404.18952v1
- Date: Sat, 27 Apr 2024 20:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 18:29:43.413166
- Title: CUE-Net: Violence Detection Video Analytics with Spatial Cropping, Enhanced UniformerV2 and Modified Efficient Additive Attention
- Title(参考訳): CUE-Net:空間的クロップ、UniformerV2の強化、高効率付加注意による暴力検出ビデオ分析
- Authors: Damith Chamalke Senadeera, Xiaoyun Yang, Dimitrios Kollias, Gregory Slabaugh,
- Abstract要約: 本稿では,ビデオ監視における暴力自動検出のための新しいアーキテクチャであるCUE-Netを紹介する。
CUE-Netはローカルとグローバル両方の時間的特徴に着目し、RWF-2000およびRLVSデータセット上で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 21.354382437543315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we introduce CUE-Net, a novel architecture designed for automated violence detection in video surveillance. As surveillance systems become more prevalent due to technological advances and decreasing costs, the challenge of efficiently monitoring vast amounts of video data has intensified. CUE-Net addresses this challenge by combining spatial Cropping with an enhanced version of the UniformerV2 architecture, integrating convolutional and self-attention mechanisms alongside a novel Modified Efficient Additive Attention mechanism (which reduces the quadratic time complexity of self-attention) to effectively and efficiently identify violent activities. This approach aims to overcome traditional challenges such as capturing distant or partially obscured subjects within video frames. By focusing on both local and global spatiotemporal features, CUE-Net achieves state-of-the-art performance on the RWF-2000 and RLVS datasets, surpassing existing methods.
- Abstract(参考訳): 本稿では,ビデオ監視における暴力の自動検出を目的とした新しいアーキテクチャであるCUE-Netを紹介する。
技術進歩とコスト削減により監視システムが普及するにつれて、大量のビデオデータを効率的に監視することの難しさが増している。
CUE-Netは、空間的クロップングとUniformerV2アーキテクチャの強化バージョンを組み合わせることでこの問題に対処し、新しい修正された効率的な付加的注意機構(自己意図の二次的な時間的複雑さを低減させる)とともに、畳み込みと自己意図のメカニズムを統合することで、暴力行為を効果的かつ効率的に識別する。
このアプローチは、ビデオフレーム内の遠くまたは部分的に隠された被写体をキャプチャするなど、従来の課題を克服することを目的としている。
CUE-Netは、局所的およびグローバルな時空間的特徴に焦点を合わせ、RWF-2000およびRLVSデータセットにおける最先端のパフォーマンスを達成し、既存の手法を超越している。
関連論文リスト
- iiANET: Inception Inspired Attention Hybrid Network for efficient Long-Range Dependency [0.0]
iiANET(Inception Inspired Attention Network)は,複雑な画像の長距離依存性を捉えるために設計された,効率的なハイブリッドモデルである。
基本的なビルディングブロックであるiiABlockはグローバル2D-MHSA(Multi-Head Self-Attention)をレジスタ、MBConv2(MobileNetV2ベースの畳み込み)、拡張畳み込みを並列に統合する。
各iABlockの終端にECANET(Efficient Channel Attention Network)を連続的に統合し、チャネルワイドアテンションを校正し、モデル性能を向上させる。
論文 参考訳(メタデータ) (2024-07-10T12:39:02Z) - Low-Light Video Enhancement via Spatial-Temporal Consistent Illumination and Reflection Decomposition [68.6707284662443]
低照度ビデオエンハンスメント(LLVE)は、激しい視認性とノイズに悩まされる動的および静的なシーンの復元を目指している。
1つの重要な側面は、時間空間照明と外観強化バージョンに特化した一貫性の制約を定式化することである。
本稿では,レチネックスを基盤とした革新的なビデオ分解戦略について述べる。
論文 参考訳(メタデータ) (2024-05-24T15:56:40Z) - Video Dynamics Prior: An Internal Learning Approach for Robust Video
Enhancements [83.5820690348833]
外部トレーニングデータコーパスを必要としない低レベルの視覚タスクのためのフレームワークを提案する。
提案手法は,コヒーレンス・時間的テストの重み付けと統計内部統計を利用して,破損したシーケンスを最適化することでニューラルモジュールを学習する。
論文 参考訳(メタデータ) (2023-12-13T01:57:11Z) - DADFNet: Dual Attention and Dual Frequency-Guided Dehazing Network for
Video-Empowered Intelligent Transportation [79.18450119567315]
逆の気象条件は、ビデオベースの交通監視に深刻な課題をもたらす。
本稿では,リアルタイム視認性向上のための2つの注意と2つの周波数誘導型脱ハージングネットワーク(DADFNet)を提案する。
論文 参考訳(メタデータ) (2023-04-19T11:55:30Z) - Video Violence Recognition and Localization using a Semi-Supervised
Hard-Attention Model [0.0]
暴力の監視と監視システムは、コミュニティを安全にし、命を救うことができる。
現在の最先端のディープラーニングによるビデオ暴力認識の精度とパフォーマンスの向上により、監視システムはより信頼性が高く、スケーラブルになる。
提案手法の主な貢献は,RWF,Hockey,Moviesのデータセットにおける最先端の精度を実現することである。
論文 参考訳(メタデータ) (2022-02-04T16:15:26Z) - Fast Online Video Super-Resolution with Deformable Attention Pyramid [172.16491820970646]
ビデオスーパーレゾリューション(VSR)には、ビデオストリーミングやテレビなど、厳格な因果性、リアルタイム、レイテンシの制約を課す多くのアプリケーションがある。
変形性アテンションピラミッド(DAP)に基づく繰り返しVSRアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-02-03T17:49:04Z) - Real Time Action Recognition from Video Footage [0.5219568203653523]
ビデオ監視カメラは犯罪を検知する新しい次元を追加した。
本研究は、暴力行為を検出するための自律監視のための堅牢なパイプラインを確保するために、最先端のディープラーニング手法を統合することに焦点を当てる。
論文 参考訳(メタデータ) (2021-12-13T07:27:41Z) - Channel-wise Gated Res2Net: Towards Robust Detection of Synthetic Speech
Attacks [67.7648985513978]
自動話者検証(ASV)における既存のアンチスプーフィングのアプローチは、未確認攻撃に対する一般化性に欠ける。
本稿では,チャネルワイズゲーティング機構を実現するためにRes2Netを改良した新しいCG-Res2Netを提案する。
論文 参考訳(メタデータ) (2021-07-19T12:27:40Z) - DR-TANet: Dynamic Receptive Temporal Attention Network for Street Scene
Change Detection [35.29786193920396]
本稿では,時間的注意の提示と時間的注意の依存性スコープサイズが変化検出の性能に及ぼす影響について検討する。
GSV', TSUNAMI', VL-CMU-CD'のストリートシーンデータセットでは, ベルや笛を使わずに新たな最先端のスコアが確立され, 優れた性能が得られる。
論文 参考訳(メタデータ) (2021-03-01T10:01:35Z) - An Efficient Recurrent Adversarial Framework for Unsupervised Real-Time
Video Enhancement [132.60976158877608]
対比ビデオの例から直接学習する効率的な対比ビデオ強化フレームワークを提案する。
特に,空間的情報と時間的情報の暗黙的統合のための局所的モジュールとグローバルモジュールからなる新しい再帰的セルを導入する。
提案する設計では,フレーム間の情報伝達を効率的に行うことができ,複雑なネットワークの必要性を低減できる。
論文 参考訳(メタデータ) (2020-12-24T00:03:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。