論文の概要: A citizen science toolkit to collect human perceptions of urban environments using open street view images
- arxiv url: http://arxiv.org/abs/2403.00174v4
- Date: Mon, 04 Nov 2024 11:38:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:40:52.560406
- Title: A citizen science toolkit to collect human perceptions of urban environments using open street view images
- Title(参考訳): オープンストリートビュー画像を用いた都市環境の人間の知覚収集のための市民科学ツールキット
- Authors: Matthew Danish, SM Labib, Britta Ricker, Marco Helbich,
- Abstract要約: ストリートビュー画像(SVI)は、研究(環境評価、緑地識別、土地被覆分類など)に有用なデータソースである。
オープンなSVIデータセットは、Mapillaryのような制限の少ないソースから容易に利用できる。
オープンなSVIを自動ダウンロード、処理、収穫、フィルタリングする効率的な方法を提案する。
- 参考スコア(独自算出の注目度): 0.20999222360659603
- License:
- Abstract: Street View Imagery (SVI) is a valuable data source for studies (e.g., environmental assessments, green space identification or land cover classification). While commercial SVI is available, such providers commonly restrict copying or reuse in ways necessary for research. Open SVI datasets are readily available from less restrictive sources, such as Mapillary, but due to the heterogeneity of the images, these require substantial preprocessing, filtering, and careful quality checks. We present an efficient method for automated downloading, processing, cropping, and filtering open SVI, to be used in a survey of human perceptions of the streets portrayed in these images. We demonstrate our open-source reusable SVI preparation and smartphone-friendly perception-survey software with Amsterdam (Netherlands) as the case study. Using a citizen science approach, we collected from 331 people 22,637 ratings about their perceptions for various criteria. We have published our software in a public repository for future re-use and reproducibility.
- Abstract(参考訳): ストリートビュー画像(SVI)は、研究(環境評価、緑地識別、土地被覆分類など)に有用なデータソースである。
商用SVIは利用可能だが、そのようなプロバイダは通常、研究に必要なコピーや再利用を制限している。
オープンなSVIデータセットは、Mapillaryのような制約の少ないソースから容易に利用できるが、画像の不均一性のため、かなりの事前処理、フィルタリング、慎重な品質チェックが必要になる。
本稿では,これらの画像に写っている道路の人間の知覚調査に使用される,自動ダウンロード,処理,収穫,フィルタリングの効率的な方法を提案する。
我々は,アムステルダム(オランダ)を事例として,オープンソースの再利用可能なSVI準備とスマートフォンフレンドリーな知覚サーベイソフトウェアを実演する。
市民科学のアプローチを用いて, 様々な基準で評価された331名, 22,637名を対象に調査を行った。
我々のソフトウェアは、将来の再利用と再現性のために、パブリックリポジトリに公開しました。
関連論文リスト
- Bird's-Eye View to Street-View: A Survey [16.90516098120805]
衛星画像からストリートビュー画像がどのように合成されるのかを概観するため、20の最近の研究論文をレビューした。
主な発見は, (i) より現実的で正確なストリートビュー画像の合成に新しいディープラーニング技術が必要であること, (ii) 公共利用のためにより多くのデータセットを収集する必要があること, (iii) 生成された画像を適切に評価するためには,より具体的な評価指標を検討する必要があること,である。
論文 参考訳(メタデータ) (2024-05-14T21:01:12Z) - The Adversarial AI-Art: Understanding, Generation, Detection, and Benchmarking [47.08666835021915]
本稿では,AI生成画像(AI-art)を敵のシナリオで理解し,検出するための体系的な試みを提案する。
ARIAという名前のデータセットには、アートワーク(絵画)、ソーシャルメディアイメージ、ニュース写真、災害シーン、アニメ画像の5つのカテゴリに140万以上の画像が含まれている。
論文 参考訳(メタデータ) (2024-04-22T21:00:13Z) - Cross-Modal Learning of Housing Quality in Amsterdam [7.316396716394438]
アムステルダムの住宅品質を地上および空中画像から認識するためのデータとモデルをテストする。
地上レベルの画像については、Google StreetView(GSV)とFlickrイメージを比較します。
以上の結果から,GSVは空中画像のみを用いた場合よりも約30%高い精度で構築品質を予測できることがわかった。
論文 参考訳(メタデータ) (2024-03-13T19:11:58Z) - To use or not to use proprietary street view images in (health and place) research? That is the question [0.20999222360659603]
この記事では、ヨーロッパの観点からGoogleストリートビュー画像を使用する際の現在の実践について疑問を呈する。
画像の大量ダウンロードやストリートビュー画像ベースのインデックスの生成を制限するGoogleのサービス規約に懸念があります。
論文 参考訳(メタデータ) (2024-02-18T08:26:22Z) - Open-source data pipeline for street-view images: a case study on
community mobility during COVID-19 pandemic [0.9423257767158634]
ストリートビュー画像(SVI)は研究者にとって貴重なデータ源である。
Googleストリートビューの画像は頻繁に収集されるため、時間的分析は困難である。
本研究では,現在利用可能なSVIデータを超える研究目的のために,SVIの収集と利用の実現可能性と価値を実証する。
論文 参考訳(メタデータ) (2024-01-23T20:56:16Z) - Raising the Bar of AI-generated Image Detection with CLIP [50.345365081177555]
本研究の目的は、AI生成画像の普遍的検出のための事前学習された視覚言語モデル(VLM)の可能性を探ることである。
我々は,CLIP機能に基づく軽量な検出戦略を開発し,その性能を様々な難易度シナリオで検証する。
論文 参考訳(メタデータ) (2023-11-30T21:11:20Z) - NPF-200: A Multi-Modal Eye Fixation Dataset and Method for
Non-Photorealistic Videos [51.409547544747284]
NPF-200は、視線を固定した純粋にフォトリアリスティックでないビデオの大規模なマルチモーダルデータセットである。
私たちは一連の分析を行い、このタスクについてより深い洞察を得ます。
NPSNetと呼ばれる広帯域周波数対応マルチモーダル非フォトリアリスティックサリエンシ検出モデルを提案する。
論文 参考訳(メタデータ) (2023-08-23T14:25:22Z) - A Comprehensive Survey of Transformers for Computer Vision [3.1761172592339375]
ビジョントランス (ViT) は様々なコンピュータビジョンアプリケーション (CV) に使用される。
今回の調査は、VTs for CVsに関する私たちの知る限りでは初めてのものだ。
CVアプリケーションには、画像分類、オブジェクト検出、画像セグメンテーション、画像圧縮、画像超解像、画像デノイング、異常検出などがある。
論文 参考訳(メタデータ) (2022-11-11T05:11:03Z) - Perceptual Quality Assessment of Omnidirectional Images [81.76416696753947]
16のソース画像と320の歪み画像を含む全方位IQA (OIQA) データベースを最初に構築する。
そして、VR環境におけるOIQAデータベース上で主観的品質評価研究を行う。
原画像と歪んだ全方位画像、主観的品質評価、および頭部と眼の動きデータを合わせてOIQAデータベースを構成する。
論文 参考訳(メタデータ) (2022-07-06T13:40:38Z) - APES: Audiovisual Person Search in Untrimmed Video [87.4124877066541]
音声人物探索データセット(APES)について述べる。
APESには36時間のビデオにラベル付けされた1,9K以上のIDが含まれている。
APESの重要な特徴は、顔と同一アイデンティティの音声セグメントをリンクする密集した時間アノテーションを含むことである。
論文 参考訳(メタデータ) (2021-06-03T08:16:42Z) - Lighting the Darkness in the Deep Learning Era [118.35081853500411]
低照度画像強調(LLIE)は、照明の弱い環境で撮影された画像の知覚や解釈性を改善することを目的としている。
この分野における最近の進歩は、ディープラーニングベースのソリューションが支配的です。
アルゴリズム分類から未解決の未解決問題まで,さまざまな側面をカバーする包括的な調査を行う。
論文 参考訳(メタデータ) (2021-04-21T19:12:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。