論文の概要: Re-designing cities with conditional adversarial networks
- arxiv url: http://arxiv.org/abs/2104.04013v1
- Date: Thu, 8 Apr 2021 19:03:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 14:15:00.593747
- Title: Re-designing cities with conditional adversarial networks
- Title(参考訳): 条件付き対向ネットワークを持つ再設計都市
- Authors: Mohamed R. Ibrahim, James Haworth, Nicola Christie
- Abstract要約: 本稿では,都市景観の街路レベルのイメージを再設計するための条件付き生成対向ネットワークを提案する。
現実のシナリオから都市介入前後のストリートレベルの画像をまとめた新しいデータセットを紹介します。
トレーニングされたモデルは、他のドメインで画像から画像への変換を適用する既存の手法よりも優れた、リモデリング都市において強力なパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces a conditional generative adversarial network to
redesign a street-level image of urban scenes by generating 1) an urban
intervention policy, 2) an attention map that localises where intervention is
needed, 3) a high-resolution street-level image (1024 X 1024 or 1536 X1536)
after implementing the intervention. We also introduce a new dataset that
comprises aligned street-level images of before and after urban interventions
from real-life scenarios that make this research possible. The introduced
method has been trained on different ranges of urban interventions applied to
realistic images. The trained model shows strong performance in re-modelling
cities, outperforming existing methods that apply image-to-image translation in
other domains that is computed in a single GPU. This research opens the door
for machine intelligence to play a role in re-thinking and re-designing the
different attributes of cities based on adversarial learning, going beyond the
mainstream of facial landmarks manipulation or image synthesis from semantic
segmentation.
- Abstract(参考訳): 本稿は,1)都市介入政策,2)介入が必要な場所を特定できる注意マップ,3)介入実施後の高解像度街並み画像(1024×1024または1536×1536)を作成することにより,都市景観の街並み画像を再設計する条件付き生成広告ネットワークを提案する。
また,この研究を可能にした実生活シナリオによる都市内介入前後の街路レベル画像を含む新たなデータセットも導入する。
提案手法は実写画像に適用した様々な都市介入の訓練を行っている。
トレーニングされたモデルは、リモデリング都市で強力なパフォーマンスを示し、単一のGPUで計算される他のドメインで画像から画像への変換を適用する既存の手法よりも優れています。
この研究は、顔のランドマーク操作やセマンティックセグメンテーションからのイメージ合成の主流を超えて、敵対的学習に基づく都市の異なる属性を再考し、再設計する上で、機械学習が役割を果たすための扉を開く。
関連論文リスト
- Sat2Scene: 3D Urban Scene Generation from Satellite Images with
Diffusion [82.97474530980999]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - Synthesizing Traffic Datasets using Graph Neural Networks [2.444217495283211]
本稿では,2次元交通シミュレーションと記録ジャンクション映像からフォトリアリスティックな画像を作成することによって,この「シムリアル」ギャップを埋める新しい手法を提案する。
本稿では,現実的な都市交通画像の作成を容易にするために,条件付き生成適応ネットワークとグラフニューラルネットワーク(GNN)を統合した新しい画像生成手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T13:24:19Z) - A shape-based heuristic for the detection of urban block artifacts in
street networks [0.0]
ストリートネットワークは都市のユビキタスな構成要素であり、開発を指導し、場所から場所への移動を可能にする。
グラフ表現は主に交通目的のために設計されている。
この表現は、交通ネットワークを単純化する必要がある他のユースケースには適していない。
論文 参考訳(メタデータ) (2023-09-01T13:11:35Z) - Efficient and Explicit Modelling of Image Hierarchies for Image
Restoration [120.35246456398738]
本研究では,画像復元のためのグローバル,地域,地域領域における画像階層を効率的に,かつ明示的にモデル化する機構を提案する。
そこで本研究では, 空間と時間的複雑性のバランスが良く, 固定されたストライプ自己注意を提案する。
そこで我々はGlobal, Regional, Local Rangeにおける画像階層を明示的にモデル化するGRLと呼ばれる新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-01T18:59:29Z) - Self-Supervision, Remote Sensing and Abstraction: Representation
Learning Across 3 Million Locations [7.860343491689477]
我々は,200の都市から,自己管理手法が一般化可能な表現を構築できることを示す。
また,教師付き手法と比較して,このような手法の性能差がリモートセンシング画像にとって重要であることも確認した。
論文 参考訳(メタデータ) (2022-03-08T23:32:33Z) - Urban Radiance Fields [77.43604458481637]
本研究では,都市屋外環境における世界地図作成によく利用されるスキャニングプラットフォームによって収集されたデータから3次元再構成と新しいビュー合成を行う。
提案手法は、制御された環境下での小さなシーンのための現実的な新しい画像の合成を実証したニューラルラジアンス場を拡張している。
これら3つのエクステンションはそれぞれ、ストリートビューデータの実験において、大幅なパフォーマンス改善を提供する。
論文 参考訳(メタデータ) (2021-11-29T15:58:16Z) - TMBuD: A dataset for urban scene building detection [0.0]
本稿では,都市景観における人造構造物の画像処理に適したデータセットソリューションTMBuDを提案する。
提案したデータセットは、建物の街路ビューに焦点をあてた画像の健全なエッジとセマンティックセグメンテーションの適切な評価を可能にする。
このデータセットは、ルーマニアのティミショアラから160枚の建物を撮影したもので、解像度は768 x 1024ピクセルである。
論文 参考訳(メタデータ) (2021-10-27T17:08:11Z) - Efficient Self-supervised Vision Transformers for Representation
Learning [86.57557009109411]
疎密な自己意識を持つマルチステージアーキテクチャは、モデリングの複雑さを著しく低減できることを示す。
そこで本研究では,モデルがよりきめ細かな領域依存を捕捉できるような,領域マッチングの事前学習タスクを提案する。
この2つの手法を組み合わせることで,ImageNet線形プローブ評価において,EsViTは81.3%のトップ1を達成した。
論文 参考訳(メタデータ) (2021-06-17T19:57:33Z) - Cross-Descriptor Visual Localization and Mapping [81.16435356103133]
視覚のローカライゼーションとマッピングは、Mixed Realityとロボティクスシステムの大部分を支える重要な技術である。
特徴表現の連続的な更新を必要とする局所化とマッピングのための3つの新しいシナリオを提案する。
我々のデータ駆動型アプローチは特徴記述子型に非依存であり、計算要求が低く、記述アルゴリズムの数と線形にスケールする。
論文 参考訳(メタデータ) (2020-12-02T18:19:51Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z) - Urban2Vec: Incorporating Street View Imagery and POIs for Multi-Modal
Urban Neighborhood Embedding [8.396746290518102]
Urban2Vecは、ストリートビューイメージと関心のポイントデータの両方を組み込んだ、教師なしマルチモーダルフレームワークである。
我々は,Urban2Vecがベースラインモデルよりも優れた性能を実現し,下流予測タスクにおける完全教師付き手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2020-01-29T21:30:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。