論文の概要: Automated Attendee Recognition System for Large-Scale Social Events or Conference Gathering
- arxiv url: http://arxiv.org/abs/2503.03330v1
- Date: Wed, 05 Mar 2025 10:03:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:52:07.441097
- Title: Automated Attendee Recognition System for Large-Scale Social Events or Conference Gathering
- Title(参考訳): 大規模ソーシャルイベントや会議収集のための自動アテンデ認識システム
- Authors: Dhruv Motwani, Ankush Tyagi, Vipul Dabhi, Harshadkumar Prajapati,
- Abstract要約: 入口ゲートと出口ゲートに設置したカメラを用いたクラウドベースの自動アテンダンストラッキングシステムを提案する。
搭載されたカメラは継続的にビデオを撮影し、ビデオデータをクラウドサービスに送り、リアルタイムの顔検出と認識を行う。
このシステムは、顔の障害のない個人に対して100%の精度を達成し、カメラの視野に現れるすべての参加者を正常に認識する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Manual attendance tracking at large-scale events, such as marriage functions or conferences, is often inefficient and prone to human error. To address this challenge, we propose an automated, cloud-based attendance tracking system that uses cameras mounted at the entrance and exit gates. The mounted cameras continuously capture video and send the video data to cloud services to perform real-time face detection and recognition. Unlike existing solutions, our system accurately identifies attendees even when they are not looking directly at the camera, allowing natural movements, such as looking around or talking while walking. To the best of our knowledge, this is the first system to achieve high recognition rates under such dynamic conditions. Our system demonstrates overall 90% accuracy, with each video frame processed in 5 seconds, ensuring real time operation without frame loss. In addition, notifications are sent promptly to security personnel within the same latency. This system achieves 100% accuracy for individuals without facial obstructions and successfully recognizes all attendees appearing within the camera's field of view, providing a robust solution for attendee recognition in large-scale social events.
- Abstract(参考訳): 結婚機能や会議などの大規模なイベントにおける手動の出席追跡は、しばしば非効率であり、ヒューマンエラーを起こしやすい。
この課題に対処するために,入り口ゲートと出口ゲートにカメラを設置したクラウドベースのアテンダンストラッキングシステムを提案する。
搭載されたカメラは継続的にビデオを撮影し、ビデオデータをクラウドサービスに送り、リアルタイムの顔検出と認識を行う。
既存のソリューションとは違って、カメラを直接見ていない場合でも参加者を正確に識別し、歩きながら見回したり、しゃべったりといった自然な動きを可能にする。
我々の知る限りでは、このような動的条件下で高い認識率を達成する最初のシステムである。
本システムでは,ビデオフレームを5秒で処理し,フレームロスを伴わないリアルタイム操作を実現する。
さらに、同じレイテンシ内でセキュリティ担当者に通知が即時に送信される。
このシステムは、顔の障害のない個人に対して100%の精度を実現し、カメラの視野に現れる全ての参加者をうまく認識し、大規模社会イベントにおける参加者認識のための堅牢なソリューションを提供する。
関連論文リスト
- Motion-Aware Optical Camera Communication with Event Cameras [28.041269887313042]
本稿では,イベントカメラを利用した新しいシステムについて紹介する。
高速なローカライゼーションとデータストリーミングを実現するために,動的視覚マーカーとイベントベースのトラッキングアルゴリズムを提案する。
注目すべきは、イベントカメラのユニークな機能は、画面のリフレッシュレートとカメラの動きに関する問題を緩和し、静的条件下では最大114Kbpsのスループットを実現することである。
論文 参考訳(メタデータ) (2024-12-01T14:06:31Z) - Analysis of Unstructured High-Density Crowded Scenes for Crowd Monitoring [55.2480439325792]
我々は,人群集の組織的動きを検出する自動システムの開発に興味がある。
コンピュータビジョンアルゴリズムは、混雑したシーンのビデオから情報を抽出することができる。
組織化されたコホート内の参加者数を見積もることができます。
論文 参考訳(メタデータ) (2024-08-06T22:09:50Z) - From Lab to Field: Real-World Evaluation of an AI-Driven Smart Video Solution to Enhance Community Safety [1.7904189757601403]
本稿では、現実世界の安全性を高めるために設計されたAI対応スマートビデオソリューション(SVS)を採用し、評価する。
このシステムは既存のインフラストラクチャカメラネットワークと統合され、AIの最近の進歩を活用して簡単に採用できる。
この記事では、AIアルゴリズムがカメラレベルでの異常な振る舞いをリアルタイムで検出した瞬間から、ステークホルダーが通知を受け取るまでのエンドツーエンドのレイテンシを評価する。
論文 参考訳(メタデータ) (2023-12-04T17:41:52Z) - YOLORe-IDNet: An Efficient Multi-Camera System for Person-Tracking [2.5761958263376745]
本稿では、相関フィルタとIOU(Intersection Over Union)の制約を併用して、ロバストなトラッキングを行う人物追跡システムを提案する。
提案システムは,複数のカメラでリアルタイムで容疑者を特定し,追跡する。
計算効率が高く、79%のF1スコア、既存の最先端アルゴリズムに匹敵する59%のIOUを実現している。
論文 参考訳(メタデータ) (2023-09-23T14:11:13Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Real-World Community-in-the-Loop Smart Video Surveillance -- A Case
Study at a Community College [2.4956060473718407]
本稿では,コミュニティカレッジにおける実世界テストベッドに基づくスマートビデオ監視システムを設計・展開するためのケーススタディを提案する。
我々は、疑わしい/異常な活動を識別し、ステークホルダーや住民に即座に警告できるスマートカメラベースのシステムに注力する。
このシステムは、32.41フレーム・パー・秒(FPS)レートで同時に8台のカメラを走らせることができる。
論文 参考訳(メタデータ) (2023-03-22T22:16:17Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Smart Director: An Event-Driven Directing System for Live Broadcasting [110.30675947733167]
Smart Directorは、典型的な人間向けブロードキャストプロセスを模倣して、ほぼ専門的なブロードキャストプログラムをリアルタイムで自動的に作成することを目指している。
本システムは,マルチカメラスポーツ放送における初のエンドツーエンド自動指向システムである。
論文 参考訳(メタデータ) (2022-01-11T16:14:41Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - Unveiling personnel movement in a larger indoor area with a
non-overlapping multi-camera system [23.195588088063577]
オーバーラップしない複数のカメラによる室内運動知覚の範囲を拡大する。
付加的なタイプのセンサーを導入することなく、歩行者の再識別の精度を向上させる。
論文 参考訳(メタデータ) (2021-04-10T01:44:26Z) - Training-free Monocular 3D Event Detection System for Traffic
Surveillance [93.65240041833319]
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
論文 参考訳(メタデータ) (2020-02-01T04:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。