論文の概要: A Case Study in Responsible AI-Assisted Video Solutions: Multi-Metric Behavioral Insights in a Public Market Setting
- arxiv url: http://arxiv.org/abs/2603.04607v1
- Date: Wed, 04 Mar 2026 21:11:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:10.980444
- Title: A Case Study in Responsible AI-Assisted Video Solutions: Multi-Metric Behavioral Insights in a Public Market Setting
- Title(参考訳): 責任あるAI支援ビデオソリューションのケーススタディ: 公開市場におけるマルチメトリック行動分析
- Authors: Mehrnoush Fereydouni, Eka Ebong, Sahar Maleki, Philip Otienoburu, Babak Rahimi Ardabili, Hamed Tabkhi,
- Abstract要約: 本研究は、顧客指向フロー、居住期間、移動パターンの抽出を通じて、マルチメトリック行動インサイトを生成することに焦点を当てている。
18日間にわたって収集されたデータは、定期的な作業と5月2日から4日にかけての祭りの窓に散らばっている。
運動分析は、交通の60%以上が会場の約30%に集中している不均一な循環を示している。
- 参考スコア(独自算出の注目度): 4.760683150745747
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Despite recent advances in Computer Vision and Artificial Intelligence (AI), AI-assisted video solutions have struggled to penetrate real-world urban environments due to significant concerns regarding privacy, ethical risks, and technical challenges like bias and explainability. This work addresses these barriers through a case study in a city-center public market, demonstrating a pathway for the responsible deployment of AI in community spaces. By adopting a user-centric methodology that prioritizes public trust and privacy safeguards, we show that detailed, operationally relevant behavioral insights can be derived from abstract data representations without compromising ethical standards. The study focuses on generating Multi-Metric Behavioral Insights through the extraction of three complementary signals: customer directional flow, dwell duration, and movement patterns. Utilizing human pose detection and complex behavioral analysis - processed through geometric normalization and motion modeling - the system remains robust under tracking fragmentation and occlusion. Data collected over 18 days, spanning routine operations and a festival window from May 2-4, reveals a consistently right-skewed dwell-time behavior. While most visits last approximately 3-4 minutes, peak activity periods increase the mean to roughly 22 minutes. Furthermore, movement analysis indicates uneven circulation, with over 60% of traffic concentrated in approximately 30% of the venue space. By mapping popular thoroughfares and high-traffic storefronts, this case study provides venue managers and business owners with objective, measurable information to optimize foot traffic. Ultimately, these results demonstrate that AI-enabled video solutions can be successfully integrated into urban environments to provide high-fidelity spatial analytics while maintaining strict adherence to privacy and social responsibility.
- Abstract(参考訳): コンピュータビジョンと人工知能(AI)の最近の進歩にもかかわらず、プライバシー、倫理的リスク、バイアスや説明可能性といった技術的な課題に対する懸念から、AI支援ビデオソリューションは現実世界の都市環境を浸透させるのに苦労している。
この研究は、都市中心の公共市場におけるケーススタディを通じて、これらの障壁に対処し、コミュニティ空間におけるAIの責任ある展開の道筋を示す。
公的な信頼とプライバシ保護を優先するユーザ中心の方法論を採用することで、倫理的基準を損なうことなく、詳細な、運用上の関連する行動洞察を抽象データ表現から導き出すことができることを示す。
本研究は,顧客指向性フロー,居住期間,移動パターンという3つの相補的なシグナルを抽出することにより,多段階行動インサイトを生成することに焦点を当てた。
人間のポーズ検出と複雑な行動分析(幾何学的正規化とモーションモデリング)を活用することで、システムは断片化と閉塞の追跡の下で堅牢である。
18日間にわたって収集されたデータは、定期的な作業と5月2日から4日にかけての祭りの窓に散らばっている。
ほとんどの訪問はおよそ3~4分であるが、ピーク活動期間は平均22分になる。
さらに、移動分析は、交通の60%以上が会場の約30%に集中している不均一な循環を示している。
このケーススタディは、人気のある大通りと高交通量店舗をマッピングすることで、会場管理者とビジネスオーナーに、足の交通を最適化するための客観的かつ測定可能な情報を提供する。
最終的に、これらの結果は、AI対応のビデオソリューションが都市環境にうまく統合され、プライバシーと社会的責任の厳格な遵守を維持しながら、高忠実な空間分析を提供することを示す。
関連論文リスト
- Online Segment Any 3D Thing as Instance Tracking [60.20416622842975]
オンライン3Dセグメンテーションをインスタンス追跡問題として再認識する(AutoSeg3D)。
視覚基礎モデルに固有の断片化問題を緩和するために,空間整合性学習を導入する。
ScanNet200上でESAMを2.8 AP上回る新しい最先端技術を確立する。
論文 参考訳(メタデータ) (2025-12-08T14:48:51Z) - IndustryNav: Exploring Spatial Reasoning of Embodied Agents in Dynamic Industrial Navigation [56.43007596544299]
IndustryNavは、アクティブな空間推論のための最初の動的産業用ナビゲーションベンチマークである。
9つの最先端のVisual Large Language Modelsの研究によると、クローズドソースモデルは一貫した優位性を維持している。
論文 参考訳(メタデータ) (2025-11-21T16:48:49Z) - Urbanite: A Dataflow-Based Framework for Human-AI Interactive Alignment in Urban Visual Analytics [4.107382739138796]
都市視覚分析は、現実世界の問題に対する洞察を導き出すのに欠かせないものとなっている。
多様なデータセットを管理し、複雑に蒸留し、様々な分析手法を統合する必要性は、参入の障壁を高くする。
都市視覚分析における人間とAIの協調のためのフレームワークであるUrbaniteを提案する。
論文 参考訳(メタデータ) (2025-08-10T15:44:37Z) - StreetLens: Enabling Human-Centered AI Agents for Neighborhood Assessment from Street View Imagery [8.188916140324139]
ユーザ設定可能な人間中心ワークフローであるStreetLensを紹介し、関連する社会科学の専門知識を視覚言語モデルに統合する。
StreetLensは分析プロセスのコアにドメイン知識を配置する。
また、前回の調査データの統合をサポートし、ロバスト性を高め、評価された特性の範囲を広げる。
論文 参考訳(メタデータ) (2025-06-17T16:06:03Z) - Traffic and Safety Rule Compliance of Humans in Diverse Driving Situations [48.924085579865334]
安全な運転プラクティスを再現する自律システムを開発するためには、人間のデータを分析することが不可欠だ。
本稿では,複数の軌道予測データセットにおける交通・安全規則の適合性の比較評価を行う。
論文 参考訳(メタデータ) (2024-11-04T09:21:00Z) - Identification of crowds using mobile crowd detection (MCS) and visualization with the DBSCAN algorithm for a Smart Campus environment [0.0]
本稿では,モバイル・クラウド・センシング(MCS, Mobile Crowd Sensing)と可視化アルゴリズムを用いて,大学構内における群集検出の実現可能性について検討する。
予備的な結果から, システムは有効であり, 混雑による事故防止や公共空間の管理に役立つ可能性が示唆された。
論文 参考訳(メタデータ) (2024-09-28T22:35:04Z) - RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - Big Data and Deep Learning in Smart Cities: A Comprehensive Dataset for
AI-Driven Traffic Accident Detection and Computer Vision Systems [0.0]
本研究は,スマートシティにおける最先端技術の適用について考察する。
本稿では,交通事故検出のための新しい包括的データセットを提案する。
このデータセットは学術研究を推進し、リアルタイムの事故検出アプリケーションを強化することが期待されている。
論文 参考訳(メタデータ) (2024-01-07T21:50:24Z) - Clairvoyance: A Pipeline Toolkit for Medical Time Series [95.22483029602921]
時系列学習は、データ駆動の*クリニカルな意思決定支援のパンとバターである*
Clairvoyanceは、ソフトウェアツールキットとして機能する、統合されたエンドツーエンドのオートMLフレンドリなパイプラインを提案する。
Clairvoyanceは、臨床時系列MLのための包括的で自動化可能なパイプラインの生存可能性を示す最初のものである。
論文 参考訳(メタデータ) (2023-10-28T12:08:03Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z) - Understanding Crowd Behaviors in a Social Event by Passive WiFi Sensing
and Data Mining [21.343209622186606]
本研究では,大規模社会イベントにおける群集行動に関連する3種類のパターンを抽出する包括的データ分析フレームワークを提案する。
まず,移動体の軌跡を探索要求から抽出し,群衆の動きの空間的パターンを明らかにする。
次に、k-meansとk-shapeクラスタリングアルゴリズムを適用し、群衆を訪れる時間パターンを日と場所によって抽出する。
論文 参考訳(メタデータ) (2020-02-05T03:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。