論文の概要: Green View Index Analysis and Optimal Green View Index Path Based on
Street View and Deep Learning
- arxiv url: http://arxiv.org/abs/2104.12627v1
- Date: Mon, 26 Apr 2021 14:53:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 19:33:23.767327
- Title: Green View Index Analysis and Optimal Green View Index Path Based on
Street View and Deep Learning
- Title(参考訳): ストリートビューとディープラーニングに基づくグリーンビューインデックス解析と最適なグリーンビューインデックスパス
- Authors: Anqi Hu, Jiahao Zhang and Hiroyuki Kaga
- Abstract要約: 本論文では,Google APIを用いて大阪市のストリートビュー画像を取得する。
PSPNetは、大阪市のストリートビューイメージを分類し、大阪地域のグリーンビューインデックス(GVI)データを解析するために使用される。
3つの手法、すなわち廊下解析、幾何学的ネットワークとそれらの組み合わせを用いて最適GVI経路を計算した。
- 参考スコア(独自算出の注目度): 2.8682942808330703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Streetscapes are an important part of the urban landscape, analysing and
studying them can increase the understanding of the cities' infrastructure,
which can lead to better planning and design of the urban living environment.
In this paper, we used Google API to obtain street view images of Osaka City.
The semantic segmentation model PSPNet is used to segment the Osaka City street
view images and analyse the Green View Index (GVI) data of Osaka area. Based on
the GVI data, three methods, namely corridor analysis, geometric network and a
combination of them, were then used to calculate the optimal GVI paths in Osaka
City. The corridor analysis and geometric network methods allow for a more
detailed delineation of the optimal GVI path from general areas to specific
routes. Our analysis not only allows for the calculation of specific routes for
the optimal GVI paths, but also allows for the visualisation and integration of
neighbourhood landscape data. By summarising all the data, a more specific and
objective analysis of the landscape in the study area can be carried out and
based on this, the available natural resources can be maximised for a better
life.
- Abstract(参考訳): 街並みは都市景観の重要な部分であり、それらの分析と研究は都市のインフラの理解を高め、都市生活環境のより良い計画と設計に繋がる可能性がある。
本稿では,大阪市のストリートビュー画像を取得するために,Google APIを用いた。
セマンティックセグメンテーションモデルPSPNetは、大阪市のストリートビュー画像を分割し、大阪地域のグリーンビューインデックス(GVI)データを解析するために使用される。
GVIデータに基づいて, 大阪市内の最適GVI経路を計算するために, 廊下解析, 幾何学的ネットワーク, 組み合わせの3つの手法を用いた。
廊下解析と幾何学的ネットワーク手法により、一般的な領域から特定の経路への最適GVI経路のより詳細な記述が可能になる。
本解析により,最適なgvi経路の特定経路の計算が可能となるだけでなく,近隣景観データの可視化と統合が可能となった。
すべてのデータを要約することにより、研究領域の景観をより具体的に客観的に分析することができ、これに基づいて、利用可能な天然資源をより良い生活のために最大化することができる。
関連論文リスト
- StreetviewLLM: Extracting Geographic Information Using a Chain-of-Thought Multimodal Large Language Model [12.789465279993864]
地理空間予測は災害管理、都市計画、公衆衛生など様々な分野において重要である。
提案するStreetViewLLMは,大規模言語モデルと連鎖推論とマルチモーダルデータソースを統合した新しいフレームワークである。
このモデルは、香港、東京、シンガポール、ロサンゼルス、ニューヨーク、ロンドン、パリを含む7つの世界都市に適用されている。
論文 参考訳(メタデータ) (2024-11-19T05:15:19Z) - BuildingView: Constructing Urban Building Exteriors Databases with Street View Imagery and Multimodal Large Language Mode [1.0937094979510213]
ストリートビュー・イメージリーの進歩と、都市研究との統合によって、都市分析において、外部建設はますます重要になっている。
我々は,Googleストリートビューの高解像度視覚データをOpenStreetMapの空間情報とOverpass APIを介して統合する新しいアプローチであるBuildingViewを提案する。
本研究は,都市の建築外装データの精度を向上し,キーサステナビリティと設計指標を特定し,その抽出と分類のための枠組みを開発する。
論文 参考訳(メタデータ) (2024-09-29T03:00:16Z) - Effective Urban Region Representation Learning Using Heterogeneous Urban
Graph Attention Network (HUGAT) [0.0]
都市域の表現を学習するためのヘテロジニアスな都市グラフアテンションネットワーク(HUGAT)を提案する。
ニューヨークのデータに関する我々の実験では、HUGATは最先端のすべてのモデルより優れています。
論文 参考訳(メタデータ) (2022-02-18T04:59:20Z) - SensatUrban: Learning Semantics from Urban-Scale Photogrammetric Point
Clouds [52.624157840253204]
センサットウルバン(SensatUrban)は、イギリスの3都市から収集された7.6km2の30億点近くからなる、都市規模のUAV測光点クラウドデータセットである。
データセットの各ポイントは、粒度の細かいセマンティックアノテーションでラベル付けされ、その結果、既存の最大のフォトグラムポイントクラウドデータセットの3倍の大きさのデータセットが生成される。
論文 参考訳(メタデータ) (2022-01-12T14:48:11Z) - Sidewalk Measurements from Satellite Images: Preliminary Findings [10.870041943009722]
我々はコンピュータビジョンモデルを訓練し、リモートセンシング画像から歩道、道路、建物を検出する。
抽出した歩道の異なる属性を解析するために形状解析手法を適用した。
論文 参考訳(メタデータ) (2021-12-12T02:22:46Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z) - Road Scene Graph: A Semantic Graph-Based Scene Representation Dataset
for Intelligent Vehicles [72.04891523115535]
本稿では,車載用特別シーングラフである道路シーングラフを提案する。
オブジェクトの提案だけでなく、ペアワイドな関係も提供します。
それらをトポロジカルグラフで整理することで、これらのデータは説明可能であり、完全に接続され、GCNによって容易に処理できる。
論文 参考訳(メタデータ) (2020-11-27T07:33:11Z) - GINet: Graph Interaction Network for Scene Parsing [58.394591509215005]
画像領域に対する文脈推論を促進するために,グラフインタラクションユニット(GIユニット)とセマンティックコンテキストロス(SC-loss)を提案する。
提案されたGINetは、Pascal-ContextやCOCO Stuffなど、一般的なベンチマークにおける最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2020-09-14T02:52:45Z) - Towards Semantic Segmentation of Urban-Scale 3D Point Clouds: A Dataset,
Benchmarks and Challenges [52.624157840253204]
我々は、30億点近い注釈付きポイントを持つ都市規模の測光点クラウドデータセットを提示する。
私たちのデータセットは、イギリスの3つの都市からなり、都市の景観の約7.6km2をカバーしています。
我々は,データセット上での最先端アルゴリズムの性能を評価し,その結果を包括的に分析する。
論文 参考訳(メタデータ) (2020-09-07T14:47:07Z) - Learning Physical Graph Representations from Visual Scenes [56.7938395379406]
物理シーングラフ(PSG)はシーンを階層的なグラフとして表現し、ノードは異なるスケールのオブジェクト部品に直感的に対応し、部品間の物理的接続にエッジを持つ。
PSGNetは、低レベルの画像情報と高レベルの画像情報を組み合わせたリカレントフィードバック接続、空間的に均一な特徴マップをオブジェクト中心のグラフ構造に変換するグラフプーリングとベクトル化操作を含む、標準的なCNNを拡張している。
我々は,PSGNetがシーンセグメンテーションタスクにおいて,他の自己教師付きシーン表現アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-22T16:10:26Z) - Urban2Vec: Incorporating Street View Imagery and POIs for Multi-Modal
Urban Neighborhood Embedding [8.396746290518102]
Urban2Vecは、ストリートビューイメージと関心のポイントデータの両方を組み込んだ、教師なしマルチモーダルフレームワークである。
我々は,Urban2Vecがベースラインモデルよりも優れた性能を実現し,下流予測タスクにおける完全教師付き手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2020-01-29T21:30:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。