論文の概要: Exploring Human Crowd Patterns and Categorization in Video Footage for
Enhanced Security and Surveillance using Computer Vision and Machine Learning
- arxiv url: http://arxiv.org/abs/2308.13910v1
- Date: Sat, 26 Aug 2023 16:09:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 18:04:18.293412
- Title: Exploring Human Crowd Patterns and Categorization in Video Footage for
Enhanced Security and Surveillance using Computer Vision and Machine Learning
- Title(参考訳): コンピュータビジョンと機械学習を用いたセキュリティと監視強化のための映像における人間の群集パターンと分類の検討
- Authors: Afnan Alazbah, Khalid Fakeeh, Osama Rabie
- Abstract要約: 本稿では,映像中の動きを追跡する新しいアプローチとして,コンピュータビジョンのセキュリティと監視の可能性について考察する。
動作をArcs, Lanes, Converging/Diverging, Random/Block動作に分類することにより、異なる光フロー技術、CNNモデル、機械学習モデルについて検討する。
その結果、異常検出モデルのトレーニング、動きに基づく行動洞察の提供、シーンの理解の向上が可能となった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computer vision and machine learning have brought revolutionary shifts in
perception for researchers, scientists, and the general populace. Once thought
to be unattainable, these technologies have achieved the seemingly impossible.
Their exceptional applications in diverse fields like security, agriculture,
and education are a testament to their impact. However, the full potential of
computer vision remains untapped. This paper explores computer vision's
potential in security and surveillance, presenting a novel approach to track
motion in videos. By categorizing motion into Arcs, Lanes,
Converging/Diverging, and Random/Block motions using Motion Information Images
and Blockwise dominant motion data, the paper examines different optical flow
techniques, CNN models, and machine learning models. Successfully achieving its
objectives with promising accuracy, the results can train anomaly-detection
models, provide behavioral insights based on motion, and enhance scene
comprehension.
- Abstract(参考訳): コンピュータビジョンと機械学習は、研究者、科学者、一般大衆の知覚に革命的な変化をもたらした。
かつては達成不可能と思われていたこれらの技術は、一見不可能に思える。
安全保障、農業、教育といった様々な分野における彼らの例外的な応用は、その影響の証である。
しかし、コンピュータビジョンの潜在能力は未解決である。
本稿では,映像中の動きを追跡する新しいアプローチとして,コンピュータビジョンのセキュリティと監視の可能性について考察する。
動きをArcs, Lanes, Converging/Diverging, Random/Block運動に分類し, 動き情報画像とBlockwise支配的な動きデータを用いて, 異なる光フロー技術, CNNモデル, 機械学習モデルについて検討した。
目的を有望な精度で達成することで、結果は異常検出モデルを訓練し、動きに基づく行動洞察を提供し、シーンの理解を高めることができる。
関連論文リスト
- E-Motion: Future Motion Simulation via Event Sequence Diffusion [86.80533612211502]
イベントベースのセンサーは、これまで達成できなかった詳細と精度で将来の動きを予測するユニークな機会を提供する可能性がある。
本稿では,映像拡散モデルの強力な学習能力とイベントカメラのリッチな動作情報とを,モーションシミュレーションフレームワークとして統合することを提案する。
本研究は,コンピュータビジョンシステムの解釈能力と予測精度の向上に向けた今後の研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2024-10-11T09:19:23Z) - Interpreting Hand gestures using Object Detection and Digits Classification [0.0]
本研究の目的は,数字を表す手振りを正確に認識し,分類できる堅牢なシステムを開発することである。
提案手法では、手動画像のデータセットの収集、画像の事前処理と拡張、関連する特徴の抽出、機械学習モデルのトレーニングなどを行う。
論文 参考訳(メタデータ) (2024-07-15T16:53:04Z) - Learning by Watching: A Review of Video-based Learning Approaches for
Robot Manipulation [0.0]
最近の研究は、オンラインで公開されている豊富な動画を受動的に視聴することで、学習操作のスキルを探求している。
本調査では,映像特徴表現学習技術,物価理解,3次元ハンド・ボディ・モデリング,大規模ロボット資源などの基礎を概観する。
ロボット操作の一般化とサンプル効率を高めるために,大規模な人的映像を観察することのみから学習する方法を論じる。
論文 参考訳(メタデータ) (2024-02-11T08:41:42Z) - Computer Vision for Primate Behavior Analysis in the Wild [61.08941894580172]
ビデオに基づく行動監視は、動物の認知と行動を研究する方法を変える大きな可能性を秘めている。
今でも、エキサイティングな見通しと、今日実際に達成できるものの間には、かなり大きなギャップがある。
論文 参考訳(メタデータ) (2024-01-29T18:59:56Z) - Integration and Performance Analysis of Artificial Intelligence and
Computer Vision Based on Deep Learning Algorithms [5.734290974917728]
本稿では,ディープラーニングとコンピュータビジョン技術の統合による応用効果の分析に焦点をあてる。
ディープラーニングは階層型ニューラルネットワークを構築することで歴史的なブレークスルーを実現し、エンドツーエンドの機能学習と画像の意味的理解を可能にする。
コンピュータビジョンの分野で成功した経験は、ディープラーニングアルゴリズムのトレーニングに強力なサポートを提供する。
論文 参考訳(メタデータ) (2023-12-20T09:37:06Z) - The Right Spin: Learning Object Motion from Rotation-Compensated Flow
Fields [61.664963331203666]
人間がどのように動く物体を知覚するかは、コンピュータービジョンにおける長年の研究課題である。
この問題の1つのアプローチは、これらすべての効果をモデル化するためのディープネットワークを教えることである。
運動場からカメラの回転を推定する新しい確率モデルを提案する。
論文 参考訳(メタデータ) (2022-02-28T22:05:09Z) - Attention Mechanisms in Computer Vision: A Survey [75.6074182122423]
本稿では,コンピュータビジョンにおける様々な注意機構について概観する。
チャネルアテンション,空間アテンション,時間アテンション,分岐アテンションなど,アプローチによって分類する。
我々は注意機構研究の今後の方向性を提案する。
論文 参考訳(メタデータ) (2021-11-15T09:18:40Z) - Visual Intelligence through Human Interaction [43.82765410550207]
我々は,新しいインタラクション戦略により,コンピュータビジョンのための新しい形式のデータ収集と評価が可能になることを実証する。
クラウドソーシングインタフェースにより、有料データ収集を桁違いにスピードアップし、現代の視覚モデルにおけるデータ急激な性質を満たす。
第3に,人間の生成的視覚モデルの評価が信頼性が高く,手頃な価格で,心理物理学理論に根ざしたシステムを開発する。
論文 参考訳(メタデータ) (2021-11-12T19:37:17Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - Visual Probing and Correction of Object Recognition Models with
Interactive user feedback [2.8101673772585736]
本稿では,オブジェクト認識モデルの不確かさを可視化し,ユーザフィードバックによる修正プロセスを提案する。
VAST 2020 Mini-Challenge 2が提供するデータに対するアプローチを実証します。
論文 参考訳(メタデータ) (2020-12-29T00:36:12Z) - State of the Art on Neural Rendering [141.22760314536438]
我々は,古典的コンピュータグラフィックス技術と深層生成モデルを組み合わせることで,制御可能かつフォトリアリスティックな出力を得るアプローチに焦点をあてる。
本報告は,新しいビュー合成,セマンティック写真操作,顔と身体の再現,リライティング,自由視点ビデオ,バーチャルおよび拡張現実テレプレゼンスのためのフォトリアリスティックアバターの作成など,記述されたアルゴリズムの多くの重要なユースケースに焦点をあてる。
論文 参考訳(メタデータ) (2020-04-08T04:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。