論文の概要: Re-designing cities with conditional adversarial networks
- arxiv url: http://arxiv.org/abs/2104.04013v1
- Date: Thu, 8 Apr 2021 19:03:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 14:15:00.593747
- Title: Re-designing cities with conditional adversarial networks
- Title(参考訳): 条件付き対向ネットワークを持つ再設計都市
- Authors: Mohamed R. Ibrahim, James Haworth, Nicola Christie
- Abstract要約: 本稿では,都市景観の街路レベルのイメージを再設計するための条件付き生成対向ネットワークを提案する。
現実のシナリオから都市介入前後のストリートレベルの画像をまとめた新しいデータセットを紹介します。
トレーニングされたモデルは、他のドメインで画像から画像への変換を適用する既存の手法よりも優れた、リモデリング都市において強力なパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces a conditional generative adversarial network to
redesign a street-level image of urban scenes by generating 1) an urban
intervention policy, 2) an attention map that localises where intervention is
needed, 3) a high-resolution street-level image (1024 X 1024 or 1536 X1536)
after implementing the intervention. We also introduce a new dataset that
comprises aligned street-level images of before and after urban interventions
from real-life scenarios that make this research possible. The introduced
method has been trained on different ranges of urban interventions applied to
realistic images. The trained model shows strong performance in re-modelling
cities, outperforming existing methods that apply image-to-image translation in
other domains that is computed in a single GPU. This research opens the door
for machine intelligence to play a role in re-thinking and re-designing the
different attributes of cities based on adversarial learning, going beyond the
mainstream of facial landmarks manipulation or image synthesis from semantic
segmentation.
- Abstract(参考訳): 本稿は,1)都市介入政策,2)介入が必要な場所を特定できる注意マップ,3)介入実施後の高解像度街並み画像(1024×1024または1536×1536)を作成することにより,都市景観の街並み画像を再設計する条件付き生成広告ネットワークを提案する。
また,この研究を可能にした実生活シナリオによる都市内介入前後の街路レベル画像を含む新たなデータセットも導入する。
提案手法は実写画像に適用した様々な都市介入の訓練を行っている。
トレーニングされたモデルは、リモデリング都市で強力なパフォーマンスを示し、単一のGPUで計算される他のドメインで画像から画像への変換を適用する既存の手法よりも優れています。
この研究は、顔のランドマーク操作やセマンティックセグメンテーションからのイメージ合成の主流を超えて、敵対的学習に基づく都市の異なる属性を再考し、再設計する上で、機械学習が役割を果たすための扉を開く。
関連論文リスト
- MaRINeR: Enhancing Novel Views by Matching Rendered Images with Nearby References [49.71130133080821]
MaRINeRは、近くのマッピング画像の情報を活用して、ターゲット視点のレンダリングを改善する方法である。
暗黙のシーン表現と暗黙のシーン表現の両方から、定量的な指標と定性的な例のレンダリングの改善を示す。
論文 参考訳(メタデータ) (2024-07-18T17:50:03Z) - AddressCLIP: Empowering Vision-Language Models for City-wide Image Address Localization [57.34659640776723]
そこで我々は,より意味論的に問題を解決するために,AddressCLIPというエンドツーエンドのフレームワークを提案する。
われわれはピッツバーグとサンフランシスコに3つのデータセットを構築した。
論文 参考訳(メタデータ) (2024-07-11T03:18:53Z) - Multi-scale Semantic Prior Features Guided Deep Neural Network for Urban Street-view Image [1.4473649585131072]
本稿では,ストリートビュー画像の描画のための新しいディープニューラルネットワーク(DNN)を提案する。
大規模な事前学習モデルからリッチなセマンティックプリプロンプトを学習するためにセマンティックプリプロンプトが導入された。
ApolloscapesとCityscapesデータセットの実験は、最先端の方法よりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-17T03:02:18Z) - Urban Scene Diffusion through Semantic Occupancy Map [49.20779809250597]
UrbanDiffusionは、Bird's-Eye View (BEV)マップに条件付き3次元拡散モデルである。
我々のモデルは,潜在空間内のシーンレベルの構造の分布を学習する。
実世界の運転データセットをトレーニングした後、我々のモデルは多様な都市シーンを生成することができる。
論文 参考訳(メタデータ) (2024-03-18T11:54:35Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - A shape-based heuristic for the detection of urban block artifacts in
street networks [0.0]
ストリートネットワークは都市のユビキタスな構成要素であり、開発を指導し、場所から場所への移動を可能にする。
グラフ表現は主に交通目的のために設計されている。
この表現は、交通ネットワークを単純化する必要がある他のユースケースには適していない。
論文 参考訳(メタデータ) (2023-09-01T13:11:35Z) - Mitigating Urban-Rural Disparities in Contrastive Representation Learning with Satellite Imagery [19.93324644519412]
土地被覆の特徴の特定における都市と農村の格差のリスクを考察する。
本稿では,畳み込みニューラルネットワークモデルの多レベル潜在空間を非バイアス化する手法として,コントラッシブラーニングを用いた高密度表現(FairDCL)を提案する。
得られた画像表現は、下流の都市と農村の予測格差を軽減し、現実の衛星画像の最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-11-16T04:59:46Z) - TMBuD: A dataset for urban scene building detection [0.0]
本稿では,都市景観における人造構造物の画像処理に適したデータセットソリューションTMBuDを提案する。
提案したデータセットは、建物の街路ビューに焦点をあてた画像の健全なエッジとセマンティックセグメンテーションの適切な評価を可能にする。
このデータセットは、ルーマニアのティミショアラから160枚の建物を撮影したもので、解像度は768 x 1024ピクセルである。
論文 参考訳(メタデータ) (2021-10-27T17:08:11Z) - Cross-Descriptor Visual Localization and Mapping [81.16435356103133]
視覚のローカライゼーションとマッピングは、Mixed Realityとロボティクスシステムの大部分を支える重要な技術である。
特徴表現の連続的な更新を必要とする局所化とマッピングのための3つの新しいシナリオを提案する。
我々のデータ駆動型アプローチは特徴記述子型に非依存であり、計算要求が低く、記述アルゴリズムの数と線形にスケールする。
論文 参考訳(メタデータ) (2020-12-02T18:19:51Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z) - Urban2Vec: Incorporating Street View Imagery and POIs for Multi-Modal
Urban Neighborhood Embedding [8.396746290518102]
Urban2Vecは、ストリートビューイメージと関心のポイントデータの両方を組み込んだ、教師なしマルチモーダルフレームワークである。
我々は,Urban2Vecがベースラインモデルよりも優れた性能を実現し,下流予測タスクにおける完全教師付き手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2020-01-29T21:30:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。