論文の概要: Measuring the Utilization of Public Open Spaces by Deep Learning: a
Benchmark Study at the Detroit Riverfront
- arxiv url: http://arxiv.org/abs/2002.01461v1
- Date: Tue, 4 Feb 2020 18:38:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 03:28:27.554501
- Title: Measuring the Utilization of Public Open Spaces by Deep Learning: a
Benchmark Study at the Detroit Riverfront
- Title(参考訳): 深層学習による公共空間利用の計測:デトロイト川流域におけるベンチマーク研究
- Authors: Peng Sun, Rui Hou, Jerome Lynch
- Abstract要約: 本稿では,オープンスペースにおける人間の活動量を定量的に測定するための概念的深層学習型コンピュータビジョンフレームワークを提案する。
デトロイトリバーフロント保守(DRFC)監視カメラネットワークを用いた,提案手法のケーススタディを示す。
mAPの結果は、歩行者検出では77.5%、自転車検出では81.6%である。
- 参考スコア(独自算出の注目度): 12.610479500024667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physical activities and social interactions are essential activities that
ensure a healthy lifestyle. Public open spaces (POS), such as parks, plazas and
greenways, are key environments that encourage those activities. To evaluate a
POS, there is a need to study how humans use the facilities within it. However,
traditional approaches to studying use of POS are manual and therefore time and
labor intensive. They also may only provide qualitative insights. It is
appealing to make use of surveillance cameras and to extract user-related
information through computer vision. This paper proposes a proof-of-concept
deep learning computer vision framework for measuring human activities
quantitatively in POS and demonstrates a case study of the proposed framework
using the Detroit Riverfront Conservancy (DRFC) surveillance camera network. A
custom image dataset is presented to train the framework; the dataset includes
7826 fully annotated images collected from 18 cameras across the DRFC park
space under various illumination conditions. Dataset analysis is also provided
as well as a baseline model for one-step user localization and activity
recognition. The mAP results are 77.5\% for {\it pedestrian} detection and
81.6\% for {\it cyclist} detection. Behavioral maps are autonomously generated
by the framework to locate different POS users and the average error for
behavioral localization is within 10 cm.
- Abstract(参考訳): 身体活動と社会的相互作用は、健康的なライフスタイルを保証する重要な活動である。
公園、広場、緑道などの公共のオープンスペース(POS)は、これらの活動を促進する重要な環境である。
POSを評価するためには、その内部の施設をどのように利用するかを研究する必要がある。
しかし、POSの利用を研究する従来のアプローチは手作業であり、時間と労力が集中している。
質的な洞察のみを提供することもある。
監視カメラの活用や,コンピュータビジョンによるユーザ関連情報の抽出が望まれている。
本稿では,posにおけるヒューマンアクティビティを定量的に計測するための概念実証型コンピュータビジョンフレームワークを提案し,デトロイト・リバーフロント・コンサージェンシー(drfc)監視カメラネットワークを用いた提案フレームワークのケーススタディを示す。
カスタムイメージデータセットはフレームワークをトレーニングするために提示され、データセットには、様々な照明条件下でDRFC公園空間の18のカメラから収集された7826の完全な注釈付き画像が含まれている。
データセット分析と、ワンステップユーザのローカライズとアクティビティ認識のためのベースラインモデルも提供されている。
mAPの結果は, 歩行者検出では77.5\%, サイクリスト検出では81.6\%であった。
動作マップはフレームワークによって自律的に生成され、異なるposユーザを見つけ出し、行動のローカライズに対する平均誤差は10cm以内である。
関連論文リスト
- Estimation of Psychosocial Work Environment Exposures Through Video Object Detection. Proof of Concept Using CCTV Footage [0.6632353937719806]
本稿では,コンピュータビジョンアルゴリズムを用いて,CCTV映像を用いた心理社会的作業環境の側面を推定する。
本稿では,映像中の人物を検出し,追跡する手法の実証について述べる。
顧客と従業員のインタラクションを,ポーズを推定し,出会いの時間を計算することで推定する。
論文 参考訳(メタデータ) (2024-11-06T07:43:40Z) - Learning Where to Look: Self-supervised Viewpoint Selection for Active Localization using Geometrical Information [68.10033984296247]
本稿では, 位置決めの精度を高めるために, 視点選択の重要性を強調し, アクティブな位置決め領域について検討する。
私たちのコントリビューションは、リアルタイム操作用に設計されたシンプルなアーキテクチャ、自己教師付きデータトレーニング方法、および実世界のロボティクスアプリケーションに適した計画フレームワークにマップを一貫して統合する能力による、データ駆動型アプローチの使用に関するものです。
論文 参考訳(メタデータ) (2024-07-22T12:32:09Z) - Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - Assisting Blind People Using Object Detection with Vocal Feedback [0.0]
提案手法は,Webカメラを用いてリアルタイム映像中の物体を検出することを提案する。
PythonのOpenCVライブラリは、ソフトウェアプログラムの実装に使用される。
画像認識結果は、Googleのテキスト音声ライブラリーを用いて、視覚障害者に可聴形式で転送される。
論文 参考訳(メタデータ) (2023-12-18T19:28:23Z) - Self-Supervised Place Recognition by Refining Temporal and Featural Pseudo Labels from Panoramic Data [16.540900776820084]
本稿では,時間的近傍と学習可能な特徴近傍を用いて未知の空間近傍を探索するTF-VPRという新しいフレームワークを提案する。
本手法は,リコール率,ロバスト性,方向多様性において,自己監督ベースラインよりも優れる。
論文 参考訳(メタデータ) (2022-08-19T12:59:46Z) - A Systematic Review on Computer Vision-Based Parking Lot Management
Applied on Public Datasets [5.379463265037841]
我々は、駐車場管理のためのコンピュータビジョンベースの手法をテストするために構築された、公開可能な堅牢な画像データセットを調査し、比較した。
文献レビューは、さらなる研究を必要とする関連するギャップを特定した。
論文 参考訳(メタデータ) (2022-03-12T15:35:29Z) - SEAL: Self-supervised Embodied Active Learning using Exploration and 3D
Consistency [122.18108118190334]
本稿では,SEAL(Self-Embodied Embodied Active Learning)というフレームワークを提案する。
インターネットイメージ上で訓練された知覚モデルを使用して、積極的な探索ポリシーを学ぶ。
我々は3Dセマンティックマップを用いて、行動と知覚の両方を、完全に自己管理された方法で学習する。
論文 参考訳(メタデータ) (2021-12-02T06:26:38Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Pose is all you need: The pose only group activity recognition system
(POGARS) [7.876115370275732]
本稿では,Pose Only Group Activity Recognition System(POGARS)という,ディープラーニングに基づくグループアクティビティ認識手法を提案する。
POGARSは1D CNNを使用して、グループ活動に関わる個人のダイナミクスを学習し、ピクセルデータから学習を強制する。
実験結果から,POGARSは,広く使用されているバレーボールデータセットの最先端手法と比較して,高い競争力を発揮することが確認された。
論文 参考訳(メタデータ) (2021-08-09T17:16:04Z) - Robust Object Detection via Instance-Level Temporal Cycle Confusion [89.1027433760578]
物体検出器の分布外一般化を改善するための補助的自己監視タスクの有効性を検討する。
最大エントロピーの原理に触発されて,新しい自己監督タスクであるインスタンスレベル時間サイクル混乱(cycconf)を導入する。
それぞれのオブジェクトに対して、タスクは、ビデオ内の隣接するフレームで最も異なるオブジェクトの提案を見つけ、自己スーパービジョンのために自分自身にサイクルバックすることです。
論文 参考訳(メタデータ) (2021-04-16T21:35:08Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。