論文の概要: Open-source data pipeline for street-view images: a case study on
community mobility during COVID-19 pandemic
- arxiv url: http://arxiv.org/abs/2401.13087v1
- Date: Tue, 23 Jan 2024 20:56:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 16:05:37.833034
- Title: Open-source data pipeline for street-view images: a case study on
community mobility during COVID-19 pandemic
- Title(参考訳): ストリートビュー画像のためのオープンソースデータパイプライン--COVID-19パンデミック時のコミュニティモビリティを事例として
- Authors: Matthew Martell, Nick Terry, Ribhu Sengupta, Chris Salazar, Nicole A.
Errett, Scott B. Miles, Joseph Wartman, Youngjun Choe
- Abstract要約: ストリートビュー画像(SVI)は研究者にとって貴重なデータ源である。
Googleストリートビューの画像は頻繁に収集されるため、時間的分析は困難である。
本研究では,現在利用可能なSVIデータを超える研究目的のために,SVIの収集と利用の実現可能性と価値を実証する。
- 参考スコア(独自算出の注目度): 0.9423257767158634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Street View Images (SVI) are a common source of valuable data for
researchers. Researchers have used SVI data for estimating pedestrian volumes,
demographic surveillance, and to better understand built and natural
environments in cityscapes. However, the most common source of publicly
available SVI data is Google Street View. Google Street View images are
collected infrequently, making temporal analysis challenging, especially in low
population density areas. Our main contribution is the development of an
open-source data pipeline for processing 360-degree video recorded from a
car-mounted camera. The video data is used to generate SVIs, which then can be
used as an input for temporal analysis. We demonstrate the use of the pipeline
by collecting a SVI dataset over a 38-month longitudinal survey of Seattle, WA,
USA during the COVID-19 pandemic. The output of our pipeline is validated
through statistical analyses of pedestrian traffic in the images. We confirm
known results in the literature and provide new insights into outdoor
pedestrian traffic patterns. This study demonstrates the feasibility and value
of collecting and using SVI for research purposes beyond what is possible with
currently available SVI data. Limitations and future improvements on the data
pipeline and case study are also discussed.
- Abstract(参考訳): ストリートビュー画像(SVI)は研究者にとって貴重なデータ源である。
研究者はSVIデータを使って歩行者の量を推定し、人口調査を行い、都市景観の建築と自然環境をよりよく理解した。
しかし、一般に公開されているSVIデータの最も一般的なソースはGoogleストリートビューである。
Googleストリートビューの画像は頻繁に収集され、特に人口密度の低い地域では時間的分析が難しい。
私たちの主な貢献は、車載カメラから記録された360度ビデオを処理するためのオープンソースのデータパイプラインの開発です。
ビデオデータはSVIを生成するために使用され、時間解析の入力として使用できる。
新型コロナウイルス(COVID-19)パンデミック期間中に米国シアトルの38ヶ月にわたる縦断調査でSVIデータセットを収集し,パイプラインの利用を実証した。
パイプラインの出力は,画像中の歩行者トラフィックの統計的解析によって検証される。
文献の既知結果を確認し,屋外歩行者の交通パターンに関する新たな知見を提供する。
本研究では,現在利用可能なSVIデータを超える研究目的のために,SVIの収集と利用の実現可能性と価値を示す。
データパイプラインの限界と今後の改善やケーススタディについても論じる。
関連論文リスト
- Coverage and Bias of Street View Imagery in Mapping the Urban Environment [0.0]
ストリートビュー画像(SVI)は、都市研究において貴重なデータ形式として出現し、都市環境を地図化し、知覚する新しい方法を可能にしている。
本研究では,都市環境におけるSVIの特徴レベルを推定するための新しいワークフローを提案する。
ロンドンをケーススタディとして、SVIが都市の特徴をカバーし表現する能力の潜在的なバイアスを特定するために、3つの実験が実施された。
論文 参考訳(メタデータ) (2024-09-22T02:58:43Z) - WildVis: Open Source Visualizer for Million-Scale Chat Logs in the Wild [88.05964311416717]
本研究では,高速,多目的,大規模会話分析が可能な対話型ツールWildVisを紹介する。
WildVisは、基準リストに基づいてテキストと埋め込みスペースの検索と視覚化機能を提供する。
誤用調査の促進,データセット間のトピック分布の可視化と比較,ユーザ固有の会話パターンの特徴付け,という3つのケーススタディを通じてWildVisの有用性を実証する。
論文 参考訳(メタデータ) (2024-09-05T17:59:15Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - A citizen science toolkit to collect human perceptions of urban environments using open street view images [0.20999222360659603]
ストリートビュー画像(SVI)は、研究(環境評価、緑地識別、土地被覆分類など)に有用なデータソースである。
オープンなSVIデータセットは、Mapillaryのような制限の少ないソースから容易に利用できる。
オープンなSVIを自動ダウンロード、処理、収穫、フィルタリングする効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-29T22:58:13Z) - Amirkabir campus dataset: Real-world challenges and scenarios of Visual
Inertial Odometry (VIO) for visually impaired people [3.7998592843098336]
上記の問題に対処し,ナビゲーションシステムを改善するために,Amirkabirキャンパスデータセット(AUT-VI)を導入する。
AUT-VIは17の異なる場所で126の異なる配列を持つ、新しくて超混成的なデータセットである。
進行中の開発作業のサポートとして、データキャプチャ用のAndroidアプリケーションを一般向けにリリースしました。
論文 参考訳(メタデータ) (2024-01-07T23:13:51Z) - LargeST: A Benchmark Dataset for Large-Scale Traffic Forecasting [65.71129509623587]
道路交通予測はスマートシティのイニシアチブにおいて重要な役割を担い、ディープラーニングの力によって大きな進歩を遂げている。
しかし、現在の公開データセットで達成される有望な結果は、現実的なシナリオには適用できないかもしれない。
カリフォルニアで合計8,600のセンサーと5年間の時間カバレッジを含む、LargeSTベンチマークデータセットを紹介します。
論文 参考訳(メタデータ) (2023-06-14T05:48:36Z) - Traffic Scene Parsing through the TSP6K Dataset [109.69836680564616]
高品質なピクセルレベルのアノテーションとインスタンスレベルのアノテーションを備えた,TSP6Kと呼ばれる特殊なトラフィック監視データセットを導入する。
データセットは、既存の運転シーンの何倍ものトラフィック参加者を持つ、より混雑した交通シーンをキャプチャする。
交通シーンの異なるセマンティック領域の詳細を復元するシーン解析のためのディテールリフィニングデコーダを提案する。
論文 参考訳(メタデータ) (2023-03-06T02:05:14Z) - An Experimental Urban Case Study with Various Data Sources and a Model
for Traffic Estimation [65.28133251370055]
我々はスイスのチューリッヒの都市ネットワーク内の地域でビデオ計測による実験キャンペーンを組織した。
我々は,既存のサーマルカメラからの測定を確実にすることで,交通の流れや走行時間の観点からの交通状況の把握に注力する。
本稿では,様々なデータソースの融合による移動時間を推定するために,単純かつ効率的な多重線形回帰(MLR)モデルを提案する。
論文 参考訳(メタデータ) (2021-08-02T08:13:57Z) - Exploring Data Pipelines through the Process Lens: a Reference Model
forComputer Vision [0.0]
我々は、プロセス指向のレンズを通してCVデータパイプラインを調べることで、害の分析をさらに体系化することができると論じる。
プロセス指向レンズの育成に向けた第一歩として,CVデータパイプラインの実証的研究を行った。
論文 参考訳(メタデータ) (2021-07-05T07:15:57Z) - Assessing bikeability with street view imagery and computer vision [0.0]
我々は34の指標からなる自転車の耐久性指数を開発した。
彼らはSVI以外のものよりも広いマージンで優れており、SVI指標は都市部の自転車性を評価する上でも優れていた。
論文 参考訳(メタデータ) (2021-05-13T14:08:58Z) - A DICOM Framework for Machine Learning Pipelines against Real-Time
Radiology Images [50.222197963803644]
Nifflerは、研究クラスタでの機械学習パイプラインの実行を可能にする統合フレームワークである。
ニフラーはDigital Imaging and Communications in Medicine (DICOM)プロトコルを使用して画像データの取得と保存を行っている。
我々は,そのアーキテクチャと3つのユースケースを提示する: リアルタイムに画像から下大静脈フィルターを検出すること,スキャナ利用の同定,およびスキャナクロックの校正。
論文 参考訳(メタデータ) (2020-04-16T21:06:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。