論文の概要: Methodological Foundation of a Numerical Taxonomy of Urban Form
- arxiv url: http://arxiv.org/abs/2104.14956v3
- Date: Thu, 28 Oct 2021 18:50:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-01 23:53:17.685048
- Title: Methodological Foundation of a Numerical Taxonomy of Urban Form
- Title(参考訳): 都市形態の数値分類法の方法論的基礎
- Authors: Martin Fleischmann, Alessandra Feliciotti, Ombretta Romice and Sergio
Porta
- Abstract要約: 本稿では, 生物系統学から得られた都市形態の数値分類法を提案する。
我々は同質の都市組織タイプを導出し、それら間の全体形態的類似性を決定することにより、都市形態の階層的分類を生成する。
フレーミングとプレゼンを行った後、プラハとアムステルダムの2都市でテストを行った。
- 参考スコア(独自算出の注目度): 62.997667081978825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cities are complex products of human culture, characterised by a startling
diversity of visible traits. Their form is constantly evolving, reflecting
changing human needs and local contingencies, manifested in space by many urban
patterns. Urban Morphology laid the foundation for understanding many such
patterns, largely relying on qualitative research methods to extract distinct
spatial identities of urban areas. However, the manual, labour-intensive and
subjective nature of such approaches represents an impediment to the
development of a scalable, replicable and data-driven urban form
characterisation. Recently, advances in Geographic Data Science and the
availability of digital mapping products, open the opportunity to overcome such
limitations. And yet, our current capacity to systematically capture the
heterogeneity of spatial patterns remains limited in terms of spatial
parameters included in the analysis and hardly scalable due to the highly
labour-intensive nature of the task. In this paper, we present a method for
numerical taxonomy of urban form derived from biological systematics, which
allows the rigorous detection and classification of urban types. Initially, we
produce a rich numerical characterisation of urban space from minimal data
input, minimizing limitations due to inconsistent data quality and
availability. These are street network, building footprint, and morphological
tessellation, a spatial unit derivative of Voronoi tessellation, obtained from
building footprints. Hence, we derive homogeneous urban tissue types and, by
determining overall morphological similarity between them, generate a
hierarchical classification of urban form. After framing and presenting the
method, we test it on two cities - Prague and Amsterdam - and discuss potential
applications and further developments.
- Abstract(参考訳): 都市は人間の文化の複雑な産物であり、目に見える特徴の急激な多様性によって特徴づけられる。
彼らの形態は絶えず進化しており、多くの都市パターンによって空間に現れる人間の要求や局所的な一致を反映している。
都市形態学は多くのパターンを理解する基盤を築き、都市部の異なる空間的アイデンティティを抽出するための定性的研究手法に大きく依存した。
しかしながら、このようなアプローチのマニュアル、労働集約的、主観的な性質は、スケーラブルで複製可能でデータ駆動型の都市形態のキャラクタリゼーションを開発する上で障害となる。
近年、地理データ科学の進歩とデジタルマッピング製品の可用性が、このような制限を克服する機会を開く。
しかし, 空間パターンの多様性を体系的に把握する現在の能力は, 分析に含まれる空間パラメータの面では限定的であり, 作業の労働集約的な性質から, スケーラビリティに乏しいままである。
本稿では, 都市型分類の厳密な検出と分類を可能にする, 生物学的体系に基づく都市形態の数値分類法を提案する。
まず、データ入力の最小化から都市空間の豊かな数値的特徴付けを行い、データ品質と可用性の一貫性の欠如による制限を最小化する。
これらは、通りのネットワーク、建築フットプリント、および建物フットプリントから得られるボロノイ・テッセルレーションの空間単位誘導体であるモルフォロジー・テッセルレーションである。
そこで,同質の都市組織タイプを導出し,それらの形態的類似性を決定することにより,都市形態の階層的分類を生成する。
この手法をフレーミングして提示した後、プラハとアムステルダムの2都市でテストし、潜在的な応用と今後の開発について論じる。
関連論文リスト
- Explainable Hierarchical Urban Representation Learning for Commuting Flow Prediction [1.5156879440024378]
通勤フロー予測は、現実の自治体の業務に欠かせない課題である。
我々は,異なるタイプのODフローを予測するために,意味のある領域埋め込みを生成するヘテロジニアスグラフベースモデルを開発した。
提案モデルでは,一様都市構造の観点から既存モデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-27T03:30:01Z) - Data Augmentation in Human-Centric Vision [54.97327269866757]
本研究では,人間中心型視覚タスクにおけるデータ拡張手法の包括的分析を行う。
それは、人物のReID、人間のパーシング、人間のポーズ推定、歩行者検出など、幅広い研究領域に展開している。
我々の研究は、データ拡張手法をデータ生成とデータ摂動の2つの主なタイプに分類する。
論文 参考訳(メタデータ) (2024-03-13T16:05:18Z) - Unified Data Management and Comprehensive Performance Evaluation for
Urban Spatial-Temporal Prediction [Experiment, Analysis & Benchmark] [78.05103666987655]
この研究は、多様な都市空間時間データセットにアクセスし活用する際の課題に対処する。
都市空間・時空間のビッグデータ用に設計された統合ストレージフォーマットであるアトミックファイルを導入し,40種類の多様なデータセットでその有効性を検証する。
多様なモデルとデータセットを使用して広範な実験を行い、パフォーマンスリーダーボードを確立し、有望な研究方向性を特定する。
論文 参考訳(メタデータ) (2023-08-24T16:20:00Z) - LibCity: A Unified Library Towards Efficient and Comprehensive Urban
Spatial-Temporal Prediction [74.08181247675095]
既存の分野には、さまざまなフォーマットで使用が難しいオープンソースデータなど、制限がある。
我々は、研究者に信頼性のある実験ツールと便利な開発フレームワークを提供するオープンソースライブラリ、LibCityを提案する。
論文 参考訳(メタデータ) (2023-04-27T17:19:26Z) - Latent Traversals in Generative Models as Potential Flows [113.4232528843775]
我々は,学習された動的ポテンシャルランドスケープを持つ潜在構造をモデル化することを提案する。
物理、最適輸送、神経科学にインスパイアされたこれらの潜在的景観は、物理的に現実的な偏微分方程式として学習される。
本手法は,最先端のベースラインよりも定性的かつ定量的に歪んだ軌跡を実現する。
論文 参考訳(メタデータ) (2023-04-25T15:53:45Z) - Effective Urban Region Representation Learning Using Heterogeneous Urban
Graph Attention Network (HUGAT) [0.0]
都市域の表現を学習するためのヘテロジニアスな都市グラフアテンションネットワーク(HUGAT)を提案する。
ニューヨークのデータに関する我々の実験では、HUGATは最先端のすべてのモデルより優れています。
論文 参考訳(メタデータ) (2022-02-18T04:59:20Z) - Deep Learning for Spatiotemporal Modeling of Urbanization [21.677957140614556]
都市化は世界中の人口の健康と幸福に強い影響を与えている。
多くの空間モデルが機械学習と数値モデリング技術を用いて開発されている。
本稿では,都市化予測モデルにおける深層空間学習の能力について考察する。
論文 参考訳(メタデータ) (2021-12-17T18:27:52Z) - Neural Embeddings of Urban Big Data Reveal Emergent Structures in Cities [7.148078723492643]
都市部の異質性を利用したニューラルネットワーク(GNN)を提案する。
アメリカ合衆国の16大都市圏において,何百万もの携帯電話利用者による大規模高解像度モビリティデータセットを用いて,都市部コンポーネント間の複雑な関係をエンコードしていることを示す。
異なる郡で訓練されたモデルによって生成された埋め込みは、他の郡における創発的空間構造の50%から60%を捉えることができることを示す。
論文 参考訳(メタデータ) (2021-10-24T07:13:14Z) - Deep Human-guided Conditional Variational Generative Modeling for
Automated Urban Planning [30.614010268762115]
都市計画は土地利用形態を設計し、居住可能で持続可能で安全なコミュニティの構築に役立てることができる。
画像生成にインスパイアされた深層都市計画は、深層学習を活用して土地利用構成を生成することを目的としている。
本稿では, 上記の課題を共同で解決するための, 深層都市計画手法について検討する。
論文 参考訳(メタデータ) (2021-10-12T15:45:38Z) - SCALE: Modeling Clothed Humans with a Surface Codec of Articulated Local
Elements [62.652588951757764]
衣服のモデル化と再構成は、調音性、非剛性変形、衣服の種類や地形の変化などにより困難である。
最近の研究では、ニューラルネットワークを使ってローカルな表面要素をパラメータ化している。
まず、人間の体モデルに基づいて表面要素を変形させます。
第2に,局所的な特徴から局所的な幾何学を回帰させることにより,既存の神経表面要素の制限を解消する。
論文 参考訳(メタデータ) (2021-04-15T17:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。