論文の概要: A Multi-Year Urban Streetlight Imagery Dataset for Visual Monitoring and Spatio-Temporal Drift Detection
- arxiv url: http://arxiv.org/abs/2512.12205v1
- Date: Sat, 13 Dec 2025 06:28:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.158716
- Title: A Multi-Year Urban Streetlight Imagery Dataset for Visual Monitoring and Spatio-Temporal Drift Detection
- Title(参考訳): 視覚モニタリングと時空間ドリフト検出のための多年都市街灯画像データセット
- Authors: Peizheng Li, Ioannis Mavromatis, Ajith Sahadevan, Tim Farnham, Adnan Aijaz, Aftab Khan,
- Abstract要約: 英国ブリストルで2021年から2025年にかけて22台の固定角カメラで撮影された都市街灯の大規模で縦方向の視覚的データセットを提示する。
データセットには526,000枚以上の画像が含まれており、様々な照明、天気、季節条件の下で1時間に収集されている。
この実世界のデータセットは、スマートシティデプロイメントにおける視覚的ドリフト、異常検出、MLOps戦略の詳細な調査を可能にする。
- 参考スコア(独自算出の注目度): 3.1073458974207124
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a large-scale, longitudinal visual dataset of urban streetlights captured by 22 fixed-angle cameras deployed across Bristol, U.K., from 2021 to 2025. The dataset contains over 526,000 images, collected hourly under diverse lighting, weather, and seasonal conditions. Each image is accompanied by rich metadata, including timestamps, GPS coordinates, and device identifiers. This unique real-world dataset enables detailed investigation of visual drift, anomaly detection, and MLOps strategies in smart city deployments. To promtoe seconardary analysis, we additionally provide a self-supervised framework based on convolutional variational autoencoders (CNN-VAEs). Models are trained separately for each camera node and for day/night image sets. We define two per-sample drift metrics: relative centroid drift, capturing latent space deviation from a baseline quarter, and relative reconstruction error, measuring normalized image-domain degradation. This dataset provides a realistic, fine-grained benchmark for evaluating long-term model stability, drift-aware learning, and deployment-ready vision systems. The images and structured metadata are publicly released in JPEG and CSV formats, supporting reproducibility and downstream applications such as streetlight monitoring, weather inference, and urban scene understanding. The dataset can be found at https://doi.org/10.5281/zenodo.17781192 and https://doi.org/10.5281/zenodo.17859120.
- Abstract(参考訳): 英国ブリストルで2021年から2025年にかけて22台の固定角カメラで撮影された都市街灯の大規模で縦方向の視覚的データセットを提示する。
データセットには526,000枚以上の画像が含まれており、様々な照明、天気、季節条件の下で1時間に収集されている。
各画像には、タイムスタンプ、GPS座標、デバイス識別子を含む豊富なメタデータが添付されている。
このユニークな現実世界のデータセットは、スマートシティデプロイメントにおける視覚的ドリフト、異常検出、MLOps戦略の詳細な調査を可能にする。
本稿では,畳み込み変分オートエンコーダ(CNN-VAE)に基づく自己教師型フレームワークを提案する。
モデルは、各カメラノードと日夜の画像セットごとに個別に訓練される。
サンプルごとのドリフト指標として, 相対遠心流, ベースラインクォーターからの潜時空間偏差, 相対再構成誤差の2つを定義し, 正規化画像領域劣化の測定を行った。
このデータセットは、長期モデルの安定性、ドリフト対応学習、デプロイメント対応ビジョンシステムを評価するための、現実的できめ細かいベンチマークを提供する。
画像と構造化メタデータはJPEGとCSV形式で公開されており、街灯監視、天気予報、都市景観理解などの再現性と下流アプリケーションをサポートしている。
データセットはhttps://doi.org/10.5281/zenodo.17781192とhttps://doi.org/10.5281/zenodo.17859120で見ることができる。
関連論文リスト
- MMS-VPR: Multimodal Street-Level Visual Place Recognition Dataset and Benchmark [1.858700200692012]
MMS-VPRは、歩行者のみの複雑な環境でストリートレベルの場所認識のための大規模なマルチモーダルデータセットである。
データセットは78,575枚の注釈付き画像と2,512本のビデオクリップからなり、中国・成都にある70,800ドルの屋外商業地区で207箇所で撮影された。
論文 参考訳(メタデータ) (2025-05-18T06:21:13Z) - EarthView: A Large Scale Remote Sensing Dataset for Self-Supervision [72.84868704100595]
本稿では,地球モニタリングタスクにおける深層学習アプリケーションを強化することを目的とした,リモートセンシングデータの自己監督を目的としたデータセットを提案する。
このデータセットは15テラピクセルのグローバルリモートセンシングデータにまたがっており、NEON、Sentinel、Satellogicによる1mの空間解像度データの新たなリリースなど、さまざまなソースの画像を組み合わせている。
このデータセットは、リモートセンシングデータの異なる課題に取り組むために開発されたMasked Autoencoderである。
論文 参考訳(メタデータ) (2025-01-14T13:42:22Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,新しい駆動ビュー合成評価のための合成データセットを提案する。
トレーニングコースから逸脱した画像を1~4ドル(約1,400円)で撮影する。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - SUPS: A Simulated Underground Parking Scenario Dataset for Autonomous
Driving [41.221988979184665]
SUPSは地下自動駐車のシミュレーションデータセットである。
複数のセンサーと連続したイメージに合わせた複数のセマンティックラベルを備えた複数のタスクをサポートする。
また、我々のデータセット上で、最先端のSLAMアルゴリズムと知覚モデルを評価する。
論文 参考訳(メタデータ) (2023-02-25T02:59:12Z) - A Dataset of Images of Public Streetlights with Operational Monitoring
using Computer Vision Techniques [56.838577982762956]
データセットは、英国のサウスグロスターシャー地方に設置された140のUMBRELLAノードから撮影された$sim350textrmk$イメージで構成されている。
このデータセットは、ディープニューラルネットワークのトレーニングや、スマートシティCCTVアプリケーション、スマート気象検出アルゴリズム、ストリートインフラストラクチャ監視のためのトレーニング済みモデル生成に使用することができる。
論文 参考訳(メタデータ) (2022-03-31T09:36:07Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - 2nd Place Solution for Waymo Open Dataset Challenge - Real-time 2D
Object Detection [26.086623067939605]
本稿では,画像から2次元物体を検出するリアルタイム手法を提案する。
我々は、加速度RTを活用して、検出パイプラインの推論時間を最適化する。
我々のフレームワークはNvidia Tesla V100 GPU上で45.8ms/frameのレイテンシを実現する。
論文 参考訳(メタデータ) (2021-06-16T11:32:03Z) - Speak2Label: Using Domain Knowledge for Creating a Large Scale Driver
Gaze Zone Estimation Dataset [55.391532084304494]
ワイルド・データセットのドライバ・ゲイズには、夕方を含む1日の異なる時間に撮影された586の録音が含まれている。
ワイルド・データセットのドライバ・ゲイズには338人の被験者がおり、年齢は18-63歳である。
論文 参考訳(メタデータ) (2020-04-13T14:47:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。