論文の概要: OmniCity: Omnipotent City Understanding with Multi-level and Multi-view
Images
- arxiv url: http://arxiv.org/abs/2208.00928v1
- Date: Mon, 1 Aug 2022 15:19:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:05:09.482178
- Title: OmniCity: Omnipotent City Understanding with Multi-level and Multi-view
Images
- Title(参考訳): オムニシティ:多視点・多視点画像を用いた全能都市理解
- Authors: Weijia Li, Yawen Lai, Linning Xu, Yuanbo Xiangli, Jinhua Yu, Conghui
He, Gui-Song Xia, Dahua Lin
- Abstract要約: オムニシティ(OmniCity)は、マルチレベル・マルチビュー画像から全能都市理解のための新しいデータセットである。
データセットには100万画素以上の注釈付き画像が含まれており、ニューヨーク市の25万画素のジオロケーションから順に収集されている。
新たなOmniCityデータセットでは,フットプリント抽出や高さ推定,平面/インスタンス/きめ細かなセグメンテーションなど,さまざまなタスクのベンチマークが提供されている。
- 参考スコア(独自算出の注目度): 72.4144257192959
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents OmniCity, a new dataset for omnipotent city understanding
from multi-level and multi-view images. More precisely, the OmniCity contains
multi-view satellite images as well as street-level panorama and mono-view
images, constituting over 100K pixel-wise annotated images that are
well-aligned and collected from 25K geo-locations in New York City. To
alleviate the substantial pixel-wise annotation efforts, we propose an
efficient street-view image annotation pipeline that leverages the existing
label maps of satellite view and the transformation relations between different
views (satellite, panorama, and mono-view). With the new OmniCity dataset, we
provide benchmarks for a variety of tasks including building footprint
extraction, height estimation, and building plane/instance/fine-grained
segmentation. We also analyze the impact of view on each task, the performance
of different models, limitations of existing methods, etc. Compared with the
existing multi-level and multi-view benchmarks, our OmniCity contains a larger
number of images with richer annotation types and more views, provides more
baseline results obtained from state-of-the-art models, and introduces a novel
task for fine-grained building instance segmentation on street-level panorama
images. Moreover, OmniCity provides new problem settings for existing tasks,
such as cross-view image matching, synthesis, segmentation, detection, etc.,
and facilitates the developing of new methods for large-scale city
understanding, reconstruction, and simulation. The OmniCity dataset as well as
the benchmarks will be available at https://city-super.github.io/omnicity.
- Abstract(参考訳): 本稿では,マルチレベル・マルチビュー画像から全能都市理解のための新しいデータセットであるOmniCityを提案する。
より正確には、omnicityには、複数のビューの衛星画像と、街並みのパノラマやモノビュー画像が含まれており、ニューヨーク市の25kの位置情報から適切に整列され、収集された10万画素の注釈付き画像で構成されている。
そこで我々は,衛星画像の既存のラベルマップと異なる視点(衛星,パノラマ,モノビュー)間の変換関係を利用する効率的なストリートビュー画像アノテーションパイプラインを提案する。
新たなOmniCityデータセットでは,フットプリント抽出や高さ推定,平面/インスタンス/きめ細かなセグメンテーションなど,さまざまなタスクのベンチマークが提供されている。
また、各タスクに対するビューの影響、異なるモデルの性能、既存のメソッドの制限などを分析します。
既存のマルチレベルおよびマルチビューベンチマークと比較すると、omnicityはリッチなアノテーションタイプとより多くのビューを持つイメージを多く含み、最先端モデルから得られたベースライン結果を提供し、ストリートレベルのパノラマイメージできめ細かいビルインスタンスセグメンテーションを行うための新しいタスクを導入しています。
さらに、OmniCityは、クロスビュー画像マッチング、合成、セグメンテーション、検出などの既存のタスクに新たな問題設定を提供し、大規模都市理解、再構築、シミュレーションのための新しい手法の開発を容易にする。
omnicityデータセットとベンチマークは、https://city-super.github.io/omnicityで入手できる。
関連論文リスト
- CrossViewDiff: A Cross-View Diffusion Model for Satellite-to-Street View Synthesis [54.852701978617056]
CrossViewDiffは、衛星間ビュー合成のためのクロスビュー拡散モデルである。
ビュー間の大きな相違による課題に対処するため、衛星シーン構造推定とクロスプラットフォームテクスチャマッピングモジュールを設計する。
合成結果のより包括的な評価を実現するため,GPTに基づくスコアリング手法を設計する。
論文 参考訳(メタデータ) (2024-08-27T03:41:44Z) - MatrixCity: A Large-scale City Dataset for City-scale Neural Rendering
and Beyond [69.37319723095746]
都市規模のニューラルレンダリング研究のための大規模で包括的で高品質な合成データセットを構築します。
本研究では,地上カメラのポーズと追加データモダリティを伴って,航空・街路ビューを容易に収集するパイプラインを構築した。
その結果得られたパイロットデータセットMatrixCityには、合計28km2$の2つの都市地図から、67kの空中画像と452kのストリート画像が含まれている。
論文 参考訳(メタデータ) (2023-09-28T16:06:02Z) - SAMPLING: Scene-adaptive Hierarchical Multiplane Images Representation
for Novel View Synthesis from a Single Image [60.52991173059486]
単一画像からの新規ビュー合成のためのシーン適応型階層型多面体画像表現であるSAMPlingを紹介する。
提案手法は,KITTIデータセット上の単一画像を用いて,大規模非有界屋外シーンにおいてかなりの性能向上を示す。
論文 参考訳(メタデータ) (2023-09-12T15:33:09Z) - PanorAMS: Automatic Annotation for Detecting Objects in Urban Context [17.340826322549596]
本研究では,都市環境情報に基づいてパノラマ画像のバウンディングボックスアノテーションを自動的に生成する手法を提案する。
高速かつ自動でオープンなデータソースのみから,都市データセットに対する大規模かつ高機能なアノテーションを取得する。
詳細な評価のために,パノラマ画像におけるボックスアノテーションのバウンディングのための効率的なクラウドソーシングプロトコルを提案する。
論文 参考訳(メタデータ) (2022-08-30T14:25:45Z) - OmniSyn: Synthesizing 360 Videos with Wide-baseline Panoramas [27.402727637562403]
GoogleストリートビューとBingストリートサイドは、大量のパノラマのコレクションを備えた没入型地図を提供している。
これらのパノラマは、取得した経路に沿って狭い間隔でしか利用できないため、ナビゲーション中に視覚的不連続が生じる。
ワイドベースラインパノラマ間の360度視光合成のための新しいパイプラインであるOmniSynを提案する。
論文 参考訳(メタデータ) (2022-02-17T16:44:17Z) - TMBuD: A dataset for urban scene building detection [0.0]
本稿では,都市景観における人造構造物の画像処理に適したデータセットソリューションTMBuDを提案する。
提案したデータセットは、建物の街路ビューに焦点をあてた画像の健全なエッジとセマンティックセグメンテーションの適切な評価を可能にする。
このデータセットは、ルーマニアのティミショアラから160枚の建物を撮影したもので、解像度は768 x 1024ピクセルである。
論文 参考訳(メタデータ) (2021-10-27T17:08:11Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z) - Holistic Multi-View Building Analysis in the Wild with Projection
Pooling [18.93067906200084]
細粒度構造属性に関連する6つの異なる分類課題に対処する。
このようなリモート・ビルディング・アナリティクスの問題に対処することは、都市景観の大規模データセットの増大により、最近になって可能になった。
9674棟の49426画像(トップビューとストリートビュー)からなる新しいベンチマークデータセットを提案する。
論文 参考訳(メタデータ) (2020-08-23T13:49:22Z) - Example-Guided Image Synthesis across Arbitrary Scenes using Masked
Spatial-Channel Attention and Self-Supervision [83.33283892171562]
実例誘導画像合成は,最近セマンティックラベルマップと模範画像から画像を合成するために試みられている。
本稿では,ラベルマップと意味的に異なる任意のシーンイメージを例に,より困難で汎用的な課題に取り組む。
本稿では,グローバル・ローカルな特徴アライメントと合成のためのエンドツーエンドネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-18T18:17:40Z) - Cars Can't Fly up in the Sky: Improving Urban-Scene Segmentation via
Height-driven Attention Networks [32.01932474622993]
本稿では,都市景観画像の本質的な特徴を活かし,ハイトドリブンアテンションネットワーク(HANet)と呼ばれる汎用アドオンモジュールを提案する。
画素の垂直位置に応じて情報的特徴やクラスを選択的に強調する。
提案手法は,ResNet-101をベースとしたセグメンテーションモデルにおいて,Cityscapesベンチマークにおける新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2020-03-11T06:22:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。