論文の概要: Vehicle detection from GSV imagery: Predicting travel behaviour for cycling and motorcycling using Computer Vision
- arxiv url: http://arxiv.org/abs/2508.12794v1
- Date: Mon, 18 Aug 2025 10:17:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.179348
- Title: Vehicle detection from GSV imagery: Predicting travel behaviour for cycling and motorcycling using Computer Vision
- Title(参考訳): GSV画像からの車両検出:コンピュータビジョンを用いたサイクリングとモーターサイクルの走行行動予測
- Authors: Kyriaki, Kokka, Rahul Goel, Ali Abbas, Kerry A. Nice, Luca Martial, SM Labib, Rihuan Ke, Carola Bibiane Schönlieb, James Woodcock,
- Abstract要約: 本研究は,街路景観画像の深層学習を用いて,世界中の多様な都市でサイクリングとモーターサイクルのレベルを推定する手法を示す。
旅行調査や国勢調査から推定される自転車と自転車のモードシェアに関するデータ。
モデルは、最近のモード共有データがない60の都市に適用されました。
- 参考スコア(独自算出の注目度): 13.385410584556135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transportation influence health by shaping exposure to physical activity, air pollution and injury risk.Comparative data on cycling and motorcycling behaviours is scarce, particularly at a global scale.Street view imagery, such as Google Street View (GSV), combined with computer vision, is a valuable resource for efficiently capturing travel behaviour data.This study demonstrates a novel approach using deep learning on street view images to estimate cycling and motorcycling levels across diverse cities worldwide.We utilized data from 185 global cities.The data on mode shares of cycling and motorcycling estimated using travel surveys or censuses.We used GSV images to detect cycles and motorcycles in sampled locations, using 8000 images per city.The YOLOv4 model, fine-tuned using images from six cities, achieved a mean average precision of 89% for detecting cycles and motorcycles in GSV images.A global prediction model was developed using beta regression with city-level mode shares as outcome, with log transformed explanatory variables of counts of GSV-detected images with cycles and motorcycles, while controlling for population density.We found strong correlations between GSV motorcycle counts and motorcycle mode share (0.78) and moderate correlations between GSV cycle counts and cycling mode share (0.51).Beta regression models predicted mode shares with $R^2$ values of 0.614 for cycling and 0.612 for motorcycling, achieving median absolute errors (MDAE) of 1.3% and 1.4%, respectively.Scatterplots demonstrated consistent prediction accuracy, though cities like Utrecht and Cali were outliers.The model was applied to 60 cities globally for which we didn't have recent mode share data.We provided estimates for some cities in the Middle East, Latin America and East Asia.With computer vision, GSV images capture travel modes and activity, providing insights alongside traditional data sources.
- Abstract(参考訳): 交通の健康への影響は、身体活動、大気汚染、傷害リスクに曝露することによるものであり、特に世界規模でのサイクリングやモーターサイクルの行動に関する比較データは少ない。Googleストリートビュー(GSV)のようなツリービュー画像は、コンピュータビジョンと組み合わせて、旅行行動データを効率的に把握するための貴重な資源である。この研究は、街路ビュー画像の深層学習を用いて、世界中の多様な都市でサイクリングやモーターサイクルのレベルを推定する新しいアプローチを示す。我々は185都市からのデータを活用し、サイクリングとモーターサイクルのモードシェアのデータを旅行調査や国勢調査を用いて推定した。我々は、GSV画像を用いて、都市の8000の画像を用いて、サンプリングされた場所のサイクルやバイクを検出した。このモデルでは、平均6つの都市で達成された画像を用いて、平均89%の精度で、GSV画像を精度で検出し、平均89%の精度で予測した。
ベータ回帰モデルでは,モードシェアが0.614ドル,モーターサイクルが0.612ドル,中央値の絶対誤差(MDAE)が1.3%,キャリが1.4%と予測され,ユトレヒトやカリといった都市は外れやすいものの,一貫した予測精度を示した。
関連論文リスト
- BikeVAE-GNN: A Variational Autoencoder-Augmented Hybrid Graph Neural Network for Sparse Bicycle Volume Estimation [15.126643708837712]
BikeVAE-GNNは、変分オートエンコーダ(VAE)を備えたハイブリッドグラフニューラルネットワーク(GNN)を増強する新しいデュアルタスクフレームワークである。
BikeVAE-GNNは、同時に、自転車のボリューム推定と自転車のトラフィックレベルの分類のための回帰を行う。
実験の結果,BikeVAE-GNNは機械学習およびベースラインGNNモデルより優れており,平均絶対誤差(MAE)は1日30.82本,精度99%,F1スコア0.99本であった。
論文 参考訳(メタデータ) (2025-07-18T09:18:02Z) - Evaluating the effects of Data Sparsity on the Link-level Bicycling Volume Estimation: A Graph Convolutional Neural Network Approach [54.84957282120537]
本稿では,リンクレベルの自転車の体積をモデル化するためにGCNアーキテクチャを利用する最初の研究について述べる。
線形回帰、サポートベクターマシン、ランダムフォレストといった従来の機械学習モデルと比較した。
以上の結果から,GCNモデルは,年間平均自転車数(AADB)を予測する上で,従来のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-10-11T04:53:18Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for Autonomous Driving in Challenging Conditions [46.03430162297781]
大規模4Seasonsデータセットに基づく課題条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
本稿では,視覚計測,大域的位置認識,および地図に基づく視覚的位置決め性能を共同評価するための統合ベンチマークを提案する。
論文 参考訳(メタデータ) (2022-12-31T13:52:36Z) - Estimating city-wide hourly bicycle flow using a hybrid LSTM MDN [0.0]
自転車のモードシェアを増やそうとする試みには、自転車の安全性の向上など、多くの手段が伴う。
サイクリングの安全性に関する有意義な分析は、一般的にセグメントレベルで利用できない、あるいは使用できない正確な自転車のフローデータを必要とする。
本稿では,コペンハーゲンにおける自転車の時流,天候,時間,道路条件を推定するディープラーニングに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-20T17:00:29Z) - Improving short-term bike sharing demand forecast through an irregular
convolutional neural network [16.688608586485316]
本研究は,自転車の短期共有需要予測を改善するために,不規則な畳み込み長短記憶モデル(IrConv+LSTM)を提案する。
提案モデルは,シンガポールのドックレス自転車シェアリングシステムと,シカゴ,ワシントンD.C.,ニューヨーク,ロンドンにある4つのステーションベースシステムを含む,5つの調査サイトでベンチマークモデルを用いて評価された。
このモデルはまた、自転車使用量やピーク期間の異なる地域での優れたパフォーマンスも達成している。
論文 参考訳(メタデータ) (2022-02-09T10:21:45Z) - Euro-PVI: Pedestrian Vehicle Interactions in Dense Urban Centers [126.81938540470847]
歩行者と自転車の軌跡のデータセットであるEuro-PVIを提案する。
本研究では,都市環境におけるエージェント間のマルチモーダル共有潜在空間を表現的に学習する共同推論モデルを開発する。
我々は,エゴ車と歩行者(自転車)の相互作用を正確に予測するために捉えることの重要性を示すnuScenesとEuro-PVIデータセット上での成果を達成した。
論文 参考訳(メタデータ) (2021-06-22T15:40:21Z) - Assessing bikeability with street view imagery and computer vision [0.0]
我々は34の指標からなる自転車の耐久性指数を開発した。
彼らはSVI以外のものよりも広いマージンで優れており、SVI指標は都市部の自転車性を評価する上でも優れていた。
論文 参考訳(メタデータ) (2021-05-13T14:08:58Z) - 4Seasons: A Cross-Season Dataset for Multi-Weather SLAM in Autonomous Driving [43.09957836757648]
本稿では,自律運転における季節的・挑戦的な知覚条件をカバーする新しいデータセットを提案する。
その中には、視覚計測、グローバルな位置認識、マップベースの再位置追跡などが含まれる。
論文 参考訳(メタデータ) (2020-09-14T12:31:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。