論文の概要: Violence Detection in Videos
- arxiv url: http://arxiv.org/abs/2109.08941v1
- Date: Sat, 18 Sep 2021 14:33:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 10:56:42.147048
- Title: Violence Detection in Videos
- Title(参考訳): ビデオにおける暴力検知
- Authors: Praveen Tirupattur, Christian Schulze, Andreas Dengel
- Abstract要約: ビデオに現れる暴力のカテゴリーを検出するために、新しい試みがなされる。
ハリウッド映画とビデオの両方から暴力を自動的に検出するシステムは、非常に有用である。
- 参考スコア(独自算出の注目度): 7.529847987644438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the recent years, there has been a tremendous increase in the amount of
video content uploaded to social networking and video sharing websites like
Facebook and Youtube. As of result of this, the risk of children getting
exposed to adult and violent content on the web also increased. To address this
issue, an approach to automatically detect violent content in videos is
proposed in this work. Here, a novel attempt is made also to detect the
category of violence present in a video. A system which can automatically
detect violence from both Hollywood movies and videos from the web is extremely
useful not only in parental control but also for applications related to movie
ratings, video surveillance, genre classification and so on.
Here, both audio and visual features are used to detect violence. MFCC
features are used as audio cues. Blood, Motion, and SentiBank features are used
as visual cues. Binary SVM classifiers are trained on each of these features to
detect violence. Late fusion using a weighted sum of classification scores is
performed to get final classification scores for each of the violence class
target by the system. To determine optimal weights for each of the violence
classes an approach based on grid search is employed. Publicly available
datasets, mainly Violent Scene Detection (VSD), are used for classifier
training, weight calculation, and testing. The performance of the system is
evaluated on two classification tasks, Multi-Class classification, and Binary
Classification. The results obtained for Binary Classification are better than
the baseline results from MediaEval-2014.
- Abstract(参考訳): 近年、FacebookやYoutubeのようなソーシャルネットワーキングやビデオ共有サイトにアップロードされるビデオコンテンツの量は大幅に増加している。
その結果、子どもが成人やweb上の暴力的なコンテンツに晒されるリスクも高まった。
そこで本研究では,ビデオ中の暴力的コンテンツを自動的に検出する手法を提案する。
ここでは、ビデオに含まれる暴力のカテゴリーを検出するための新しい試みも行われる。
ハリウッド映画とウェブのビデオの両方から暴力を自動的に検出できるシステムは、親のコントロールだけでなく、映画評価、ビデオ監視、ジャンル分類などのアプリケーションにも極めて有用である。
ここでは、音声と視覚の両方の機能を使って暴力を検知する。
MFCC機能はオーディオキューとして使用される。
血液、運動、センチバンクの特徴は視覚的な手がかりとして用いられる。
バイナリSVM分類器は、暴力を検出するためにこれらの機能それぞれで訓練される。
重み付けされた分類スコアを用いた後期融合を行い、システムによる暴力クラス毎に最終分類スコアを取得する。
各暴力クラスに対して最適な重み付けを決定するために、グリッドサーチに基づくアプローチを用いる。
一般に利用可能なデータセット、主にViorant Scene Detection (VSD)は、分類器のトレーニング、重み計算、テストに使用される。
システムの性能は,マルチクラス分類とバイナリ分類の2つの分類タスクで評価される。
バイナリ分類の結果はMediaEval-2014の基準値よりも優れている。
関連論文リスト
- Classification Matters: Improving Video Action Detection with Class-Specific Attention [61.14469113965433]
ビデオアクション検出(VAD)は、アクターを検出し、そのアクションをビデオで分類することを目的としている。
一般的な手法が、分類のための特徴をどう形成するかを分析し、アクター領域の優先順位付けを行う。
本稿では,アクターに対する偏見を減らし,各アクションクラスに関連する文脈に注意を払うことを提案する。
論文 参考訳(メタデータ) (2024-07-29T04:43:58Z) - Text-to-feature diffusion for audio-visual few-shot learning [59.45164042078649]
ビデオデータから学ぶことは難しいし、あまり研究されていないが、もっと安いセットアップだ。
3つのデータセットに対して,音声・視覚的数ショット映像分類ベンチマークを導入する。
AV-DIFFは,提案した音声・視覚的少数ショット学習のベンチマークにおいて,最先端の性能が得られることを示す。
論文 参考訳(メタデータ) (2023-09-07T17:30:36Z) - Temporal Saliency Query Network for Efficient Video Recognition [82.52760040577864]
ビデオ認識は、インターネットやモバイルデバイス上でのマルチメディアデータの爆発的な成長に関するホットスポット研究のトピックである。
既存の方法の多くは、クラス固有のサリエンシスコアを意識せずに、サリエントフレームを選択する。
そこで我々は,Saliency Query (TSQ) 機構を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:23:34Z) - Detecting Violence in Video Based on Deep Features Fusion Technique [0.30458514384586394]
本研究では、2つの畳み込みニューラルネットワーク(CNN)の融合技術を用いて暴力を検出する新しい方法を提案する。
提案手法の性能は,検出精度の観点から3つの標準ベンチマークデータセットを用いて評価した。
論文 参考訳(メタデータ) (2022-04-15T12:51:20Z) - Adversarial Attacks on Deep Learning-based Video Compression and
Classification Systems [23.305818640220554]
深層学習に基づくビデオ圧縮と下流分類システムに対する敵対的攻撃に対する最初の体系的研究を行う。
本稿では,2つの対向目標を達成するために,ビデオ圧縮モデルのレート・歪み関係を制御できる適応的対向攻撃を提案する。
また、ダウンストリームビデオ分類サービスに対して、ターゲットと未ターゲットの攻撃に対する新たな目的を考案する。
論文 参考訳(メタデータ) (2022-03-18T22:42:20Z) - Multilevel profiling of situation and dialogue-based deep networks for
movie genre classification using movie trailers [7.904790547594697]
我々は、状況、対話、メタデータに基づく映画ジャンル分類フレームワークという、新しいマルチモダリティを提案する。
我々は,5つのジャンルに属する2000本のハリウッド映画トレーラーを含むイギリス映画トレーラーデータセット(EMTD)を開発した。
論文 参考訳(メタデータ) (2021-09-14T07:33:56Z) - Cross-category Video Highlight Detection via Set-based Learning [55.49267044910344]
本稿では,Dual-Learner-based Video Highlight Detection (DL-VHD) フレームワークを提案する。
対象とするカテゴリビデオの区別と,ソースビデオカテゴリにおけるハイライトモーメントの特徴を学習する。
さまざまなカテゴリのハイライト検出タスクにおいて、一般的な5つのUnsupervised Domain Adaptation (UDA)アルゴリズムより優れています。
論文 参考訳(メタデータ) (2021-08-26T13:06:47Z) - VideoMix: Rethinking Data Augmentation for Video Classification [29.923635550986997]
最新のビデオアクション分類器は、しばしばオーバーフィットに苦しむ。
オーバーフィッティング問題に対処するための最近のデータ拡張戦略が報告されている。
VideoMixは、モデルがオブジェクトやシーンのバイアスを越えて学習し、アクション認識のためのより堅牢な手がかりを抽出する。
論文 参考訳(メタデータ) (2020-12-07T05:40:33Z) - A Unified Framework for Shot Type Classification Based on Subject
Centric Lens [89.26211834443558]
主観的誘導ネットワーク(SGNet)を用いたショット型認識のための学習フレームワークを提案する。
SGNetは、ショットの主題と背景を2つのストリームに分け、それぞれがスケールとムーブメントタイプの分類のための別々のガイダンスマップとして機能する。
大規模なデータセットであるMovieShotsを構築し、7Kフィルムトレーラーから46K枚の写真と、それらのスケールとムーブメントのアノテーションを含む。
論文 参考訳(メタデータ) (2020-08-08T15:49:40Z) - Generalized Few-Shot Video Classification with Video Retrieval and
Feature Generation [132.82884193921535]
従来の手法は,映像特徴学習の重要性を過小評価し,二段階的アプローチを提案する。
この単純なベースラインアプローチは、既存のベンチマークで20ポイント以上の精度で、以前の数ショットビデオ分類方法よりも優れていることを示す。
さらなる改善をもたらす2つの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-09T13:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。