論文の概要: A Cloud-based Deep Learning Framework for Early Detection of Pushing at
Crowded Event Entrances
- arxiv url: http://arxiv.org/abs/2302.08237v2
- Date: Fri, 9 Jun 2023 19:45:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 01:11:30.577022
- Title: A Cloud-based Deep Learning Framework for Early Detection of Pushing at
Crowded Event Entrances
- Title(参考訳): クラウドベースのイベントトランジェンスにおけるプッシュの早期検出のためのディープラーニングフレームワーク
- Authors: Ahmed Alia, Mohammed Maree, Mohcine Chraibi, Anas Toma and Armin
Seyfried
- Abstract要約: 混み合ったイベント入口におけるプッシュの自動早期検出のためのクラウドベースのディープラーニングフレームワークを提案する。
5つの実世界の実験と関連する地上真実データに基づいて、新しいデータセットを生成する。
提案手法では, 適切な遅延時間内に, 87%の精度でプッシュ動作を同定した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Crowding at the entrances of large events may lead to critical and
life-threatening situations, particularly when people start pushing each other
to reach the event faster. Automatic and timely identification of pushing
behavior would help organizers and security forces to intervene early and
mitigate dangerous situations. In this paper, we propose a cloud-based deep
learning framework for automatic early detection of pushing in crowded event
entrances. The proposed framework initially modifies and trains the
EfficientNetV2B0 Convolutional Neural Network model. Subsequently, it
integrates the adapted model with an accurate and fast pre-trained deep optical
flow model with the color wheel method to analyze video streams and identify
pushing patches in real-time. Moreover, the framework uses live capturing
technology and a cloud-based environment to collect video streams of crowds in
real-time and provide early-stage results. A novel dataset is generated based
on five real-world experiments and their associated ground truth data to train
the adapted EfficientNetV2B0 model. The experimental setups simulated a crowded
event entrance, while the ground truths for each video experiment was generated
manually by social psychologists. Several experiments on the videos and the
generated dataset are carried out to evaluate the accuracy and annotation delay
time of the proposed framework. The experimental results show that the proposed
framework identified pushing behaviors with an accuracy rate of 87% within a
reasonable delay time.
- Abstract(参考訳): 大きなイベントの入り口に群がると、特に人々がより早くイベントに到達するために互いに押し合い始めると、危機的かつ命が危うくなる。
プッシュ行動の自動的かつタイムリーな識別は、組織や治安部隊が早期に介入し、危険な状況を軽減するのに役立つ。
本稿では,混雑したイベント入口におけるプッシュの自動早期検出のためのクラウドベースのディープラーニングフレームワークを提案する。
提案されたフレームワークは当初、efficiernetv2b0畳み込みニューラルネットワークモデルを修正およびトレーニングする。
その後、適応モデルと高精度で高速に訓練された深層光フローモデルとカラーホイール法を統合し、ビデオストリームを分析し、プッシュパッチをリアルタイムで識別する。
さらに、このフレームワークはライブキャプチャ技術とクラウドベースの環境を使用して、リアルタイムで群衆のビデオストリームを収集し、初期段階の結果を提供する。
5つの実世界の実験とその関連する真実データに基づいて新しいデータセットを生成し、適応されたEfficientNetV2B0モデルをトレーニングする。
実験は混雑したイベントの入り口をシミュレートし、各ビデオ実験の根拠は社会心理学者が手動で作り出した。
提案フレームワークの精度とアノテーション遅延時間を評価するために,ビデオと生成されたデータセットに関するいくつかの実験を行った。
実験の結果,提案フレームワークは,適切な遅延時間内に,精度87%のプッシュ動作を同定した。
関連論文リスト
- Predicting Long-horizon Futures by Conditioning on Geometry and Time [49.86180975196375]
我々は,過去を前提とした将来のセンサ観測の課題を探求する。
マルチモーダリティを扱える画像拡散モデルの大規模事前学習を活用する。
我々は、屋内と屋外のシーンにまたがる多様なビデオのセットについて、ビデオ予測のためのベンチマークを作成する。
論文 参考訳(メタデータ) (2024-04-17T16:56:31Z) - Genuine Knowledge from Practice: Diffusion Test-Time Adaptation for
Video Adverse Weather Removal [53.15046196592023]
ビデオの悪天候除去におけるテスト時間適応について紹介する。
本稿では,テスト時間適応を反復拡散逆プロセスに統合する最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-12T14:21:30Z) - An Adaptive Framework for Generalizing Network Traffic Prediction
towards Uncertain Environments [51.99765487172328]
我々は,モバイルネットワークトラフィック予測モデルを動的に割り当てるための時系列解析を用いた新しいフレームワークを開発した。
我々のフレームワークは学習した振る舞いを採用しており、現在の研究と比較して50%以上の改善が得られ、どのモデルよりも優れています。
論文 参考訳(メタデータ) (2023-11-30T18:58:38Z) - Event-based Vision for Early Prediction of Manipulation Actions [0.7699714865575189]
ニューロモルフィック視覚センサー(Neuromorphic visual sensor)は、シーンの明るさが変化したときの事象の出力をシーケンスする人工網膜である。
本研究では,微粒な操作動作に関するイベントベースデータセットを提案する。
また,事象を伴う行動予測にトランスフォーマーを用いることについて実験的に検討した。
論文 参考訳(メタデータ) (2023-07-26T17:50:17Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Self-SuperFlow: Self-supervised Scene Flow Prediction in Stereo
Sequences [12.650574326251023]
本稿では,シーンフロー予測のための自己監督型損失の拡張について検討する。
KITTIのシーンフローベンチマークでは,本手法は同一ネットワークの教師付き事前学習よりも優れていた。
論文 参考訳(メタデータ) (2022-06-30T13:55:17Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。