論文の概要: Real-Time Violence Detection Using CNN-LSTM
- arxiv url: http://arxiv.org/abs/2107.07578v1
- Date: Thu, 15 Jul 2021 19:37:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 00:36:34.931140
- Title: Real-Time Violence Detection Using CNN-LSTM
- Title(参考訳): CNN-LSTMを用いたリアルタイムビオレンス検出
- Authors: Mann Patel
- Abstract要約: 暴力率は過去40年間に約57%減少した。
暴力のデモが実際に起きているかは、法律によって変わっていない。
私は、ディープラーニングを使って問題に対処するユニークなモデルと理論システムを作りました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Violence rates however have been brought down about 57% during the span of
the past 4 decades yet it doesn't change the way that the demonstration of
violence actually happens, unseen by the law. Violence can be mass controlled
sometimes by higher authorities, however, to hold everything in line one must
"Microgovern" over each movement occurring in every road of each square. To
address the butterfly effects impact in our setting, I made a unique model and
a theorized system to handle the issue utilizing deep learning. The model takes
the input of the CCTV video feeds and after drawing inference, recognizes if a
violent movement is going on. And hypothesized architecture aims towards
probability-driven computation of video feeds and reduces overhead from naively
computing for every CCTV video feeds.
- Abstract(参考訳): しかし、過去40年間に暴力率が約57%低下してきたが、暴力のデモが実際に起きているやり方は、法律で見ても変わっていない。
暴力は時として高官によって大量管理されることがあるが、全てのものを列に収めるためには、各広場のすべての道路で発生している動きに対して「マイクロゲイン」が必要である。
そこで本研究では, 深層学習を応用したバタフライ効果に対処するために, 独自のモデルと理論システムを構築した。
モデルはCCTVビデオフィードの入力を受け取り、推論を引いた後、暴力的な動きが起きているかどうかを認識する。
そして仮説的なアーキテクチャは、ビデオフィードの確率駆動計算を目標とし、cctvビデオフィード毎のナイーブな計算からオーバーヘッドを削減する。
関連論文リスト
- Optimizing Violence Detection in Video Classification Accuracy through 3D Convolutional Neural Networks [0.0]
本研究は、暴力検出モデルの精度を最適化するために、一度に何つのフレームを分析すべきかを特定することである。
以前の暴力分類モデルが作成されているが、ライブ映像への応用には欠陥がある可能性がある。
最も高い検証精度は94.87%であり、同時に3つのフレームを分析したモデルで発生した。
論文 参考訳(メタデータ) (2024-11-02T19:29:01Z) - JOSENet: A Joint Stream Embedding Network for Violence Detection in Surveillance Videos [4.94659999696881]
監視ビデオにおける暴力検出は、様々な実戦シーンのような追加の問題を提示する。
本稿では、監視ビデオにおける暴力検出に優れたパフォーマンスを提供する自己監視フレームワークJOSENetを紹介する。
論文 参考訳(メタデータ) (2024-05-05T15:01:00Z) - Spectral Motion Alignment for Video Motion Transfer using Diffusion Models [54.32923808964701]
スペクトル運動アライメント(英: Spectral Motion Alignment、SMA)は、フーリエ変換とウェーブレット変換を用いて運動ベクトルを洗練・整列するフレームワークである。
SMAは周波数領域の正規化を取り入れて動きパターンを学習し、全体フレームのグローバルな動きのダイナミクスの学習を容易にする。
大規模な実験は、様々なビデオカスタマイズフレームワーク間の計算効率と互換性を維持しながら、モーション転送を改善するSMAの有効性を示す。
論文 参考訳(メタデータ) (2024-03-22T14:47:18Z) - Tell Me What Happened: Unifying Text-guided Video Completion via
Multimodal Masked Video Generation [82.26026492545533]
そこで本研究では,命令で案内された部分フレームから映像を生成することをモデルに要求する,新しいタスクであるテキスト誘導ビデオ補完(TVC)を提案する。
次に,このTVC課題に対処するため,MMVG(Multimodal Masked Video Generation)を提案する。
推測時に、単一のMMVGモデルは、対応するマスキング条件を適用することで、ビデオ予測、巻き戻し、埋め込みを含むTVCの3つのケースすべてに対処することができる。
論文 参考訳(メタデータ) (2022-11-23T10:14:12Z) - Video Vision Transformers for Violence Detection [0.0]
提案手法では,対戦や敵対的な動き,暴力的な出来事をビデオシーケンスで正確に識別できる,新しいエンドツーエンドのディープラーニングベースビデオビジョントランスフォーマー(ViViT)を用いている。
評価結果はその後、地元の関係者に送信され、キャプチャされたビデオを分析することができる。
論文 参考訳(メタデータ) (2022-09-08T04:44:01Z) - Video Manipulations Beyond Faces: A Dataset with Human-Machine Analysis [60.13902294276283]
我々は826の動画(413のリアルと413の操作)からなるデータセットであるVideoShamを提示する。
既存のディープフェイクデータセットの多くは、2種類の顔操作にのみ焦点をあてている。
我々の分析によると、最先端の操作検出アルゴリズムはいくつかの特定の攻撃に対してのみ有効であり、VideoShamではうまくスケールしない。
論文 参考訳(メタデータ) (2022-07-26T17:39:04Z) - Detecting Violence in Video Based on Deep Features Fusion Technique [0.30458514384586394]
本研究では、2つの畳み込みニューラルネットワーク(CNN)の融合技術を用いて暴力を検出する新しい方法を提案する。
提案手法の性能は,検出精度の観点から3つの標準ベンチマークデータセットを用いて評価した。
論文 参考訳(メタデータ) (2022-04-15T12:51:20Z) - Real Time Action Recognition from Video Footage [0.5219568203653523]
ビデオ監視カメラは犯罪を検知する新しい次元を追加した。
本研究は、暴力行為を検出するための自律監視のための堅牢なパイプラインを確保するために、最先端のディープラーニング手法を統合することに焦点を当てる。
論文 参考訳(メタデータ) (2021-12-13T07:27:41Z) - JOKR: Joint Keypoint Representation for Unsupervised Cross-Domain Motion
Retargeting [53.28477676794658]
ビデオにおける教師なしの動作は ディープ・ニューラル・ネットワークによって 大幅に進歩しました
JOKR(Joint Keypoint Representation)は、オブジェクトの事前やデータ収集を必要とせずに、ソースとターゲットのビデオの両方を処理する。
本手法は質的かつ定量的に評価し,異なる動物,異なる花,人間など,さまざまなクロスドメインシナリオを扱うことを示す。
論文 参考訳(メタデータ) (2021-06-17T17:32:32Z) - Enhancing Unsupervised Video Representation Learning by Decoupling the
Scene and the Motion [86.56202610716504]
アクションカテゴリは、アクションが発生するシーンと非常に関連しているため、モデルが、シーン情報のみを符号化したソリューションに分解する傾向がある。
本稿では,シーンと動き(DSM)を2つの簡単な操作で分離し,動き情報に対するモデル注意がより高いようにすることを提案する。
論文 参考訳(メタデータ) (2020-09-12T09:54:11Z) - Over-the-Air Adversarial Flickering Attacks against Video Recognition
Networks [54.82488484053263]
ビデオ分類のためのディープニューラルネットワークは、敵の操作を受けることができる。
本稿では,フリックング時間摂動を導入することで,ビデオ分類器を騙す操作手法を提案する。
攻撃はいくつかの標的モデルに実装され、攻撃の伝達性が実証された。
論文 参考訳(メタデータ) (2020-02-12T17:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。