論文の概要: PanorAMS: Automatic Annotation for Detecting Objects in Urban Context
- arxiv url: http://arxiv.org/abs/2208.14295v1
- Date: Tue, 30 Aug 2022 14:25:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-31 13:25:15.925276
- Title: PanorAMS: Automatic Annotation for Detecting Objects in Urban Context
- Title(参考訳): PanorAMS: 都市環境における物体検出のための自動アノテーション
- Authors: Inske Groenen, Stevan Rudinac and Marcel Worring
- Abstract要約: 本研究では,都市環境情報に基づいてパノラマ画像のバウンディングボックスアノテーションを自動的に生成する手法を提案する。
高速かつ自動でオープンなデータソースのみから,都市データセットに対する大規模かつ高機能なアノテーションを取得する。
詳細な評価のために,パノラマ画像におけるボックスアノテーションのバウンディングのための効率的なクラウドソーシングプロトコルを提案する。
- 参考スコア(独自算出の注目度): 17.340826322549596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large collections of geo-referenced panoramic images are freely available for
cities across the globe, as well as detailed maps with location and meta-data
on a great variety of urban objects. They provide a potentially rich source of
information on urban objects, but manual annotation for object detection is
costly, laborious and difficult. Can we utilize such multimedia sources to
automatically annotate street level images as an inexpensive alternative to
manual labeling? With the PanorAMS framework we introduce a method to
automatically generate bounding box annotations for panoramic images based on
urban context information. Following this method, we acquire large-scale,
albeit noisy, annotations for an urban dataset solely from open data sources in
a fast and automatic manner. The dataset covers the City of Amsterdam and
includes over 14 million noisy bounding box annotations of 22 object categories
present in 771,299 panoramic images. For many objects further fine-grained
information is available, obtained from geospatial meta-data, such as building
value, function and average surface area. Such information would have been
difficult, if not impossible, to acquire via manual labeling based on the image
alone. For detailed evaluation, we introduce an efficient crowdsourcing
protocol for bounding box annotations in panoramic images, which we deploy to
acquire 147,075 ground-truth object annotations for a subset of 7,348 images,
the PanorAMS-clean dataset. For our PanorAMS-noisy dataset, we provide an
extensive analysis of the noise and how different types of noise affect image
classification and object detection performance. We make both datasets,
PanorAMS-noisy and PanorAMS-clean, benchmarks and tools presented in this paper
openly available.
- Abstract(参考訳): 地理的参照パノラマ画像の大規模なコレクションは、世界中の都市で自由に利用でき、また様々な都市オブジェクトの位置情報やメタデータを含む詳細な地図も利用できる。
都市オブジェクトに関する豊富な情報を提供するが、オブジェクト検出のための手動アノテーションは費用がかかり、手間がかかり、難しい。
このようなマルチメディアソースを使って、手動ラベリングに代わる安価な代用として、街路レベルの画像を自動的にアノテートできるだろうか?
panoramsフレームワークでは,都市環境情報に基づくパノラマ画像のバウンディングボックスアノテーションを自動生成する手法を導入する。
提案手法に従えば,オープンなデータソースのみを高速かつ自動で,大規模かつノイズの多い都市データセットのアノテーションを得ることができる。
このデータセットはアムステルダム市をカバーし、771,299パノラマ画像に含まれる22のオブジェクトカテゴリの1400万以上のノイズ境界ボックスアノテーションを含んでいる。
多くのオブジェクトに対して、構築値、関数、平均表面積などの地理空間メタデータから得られる詳細な情報も利用できる。
このような情報は、不可能ではないとしても、画像のみに基づいた手動ラベリングによって入手することは困難だっただろう。
詳細な評価のために,panorams-cleanデータセットである7,348イメージのサブセットに対して,147,075個の接地オブジェクトアノテーションを取得するためにデプロイする,パノラマ画像のバウンディングボックスアノテーションのための効率的なクラウドソーシングプロトコルを提案する。
PanorAMS-Noisyデータセットでは、ノイズの広範な分析と、異なる種類のノイズが画像分類と物体検出性能に与える影響について述べる。
我々は、この論文で提示されたデータセット、PanorAMSノイズとPanorAMSクリーン、ベンチマークとツールの両方を公開しています。
関連論文リスト
- 360 in the Wild: Dataset for Depth Prediction and View Synthesis [66.58513725342125]
大規模な360$circ$ビデオデータセットを野放しに導入する。
このデータセットはインターネットから慎重に取り除かれ、世界中で様々な場所から収集されている。
データセットを構成する25K画像のそれぞれに、それぞれのカメラのポーズと深さマップが提供される。
論文 参考訳(メタデータ) (2024-06-27T05:26:38Z) - OpenIllumination: A Multi-Illumination Dataset for Inverse Rendering
Evaluation on Real Objects [56.065616159398324]
我々は,64個のオブジェクトの108K画像を含む実世界のデータセットであるOpenIlluminationを紹介した。
データセットの各画像に対して、正確なカメラパラメータ、照明場真理、前景セグメンテーションマスクを提供する。
論文 参考訳(メタデータ) (2023-09-14T17:59:53Z) - OmniCity: Omnipotent City Understanding with Multi-level and Multi-view
Images [72.4144257192959]
本稿では,マルチレベル・マルチビュー画像から全能都市理解のための新しいデータセットであるOmniCityを提案する。
データセットには100万画素以上の注釈付き画像が含まれており、ニューヨーク市の25万画素のジオロケーションから順に収集されている。
新たなOmniCityデータセットでは,フットプリント抽出や高さ推定,平面/インスタンス/きめ細かなセグメンテーションなど,さまざまなタスクのベンチマークが提供されている。
論文 参考訳(メタデータ) (2022-08-01T15:19:25Z) - Mapping Temporary Slums from Satellite Imagery using a Semi-Supervised
Approach [5.830619388189557]
全世界で10億人がスラムに住んでいると推定されている。
小さくて散らばった一時的なスラムは、データ収集とラベル付けを面倒で時間を要する。
半教師付きディープラーニングセグメンテーションに基づく一時スラム検出手法を提案する。
論文 参考訳(メタデータ) (2022-04-09T08:02:32Z) - There is a Time and Place for Reasoning Beyond the Image [63.96498435923328]
画像は人間の目へのピクセルだけでなく、他のソースからのコンテキスト情報から推論、関連付け、推論して、推論することで、より完全な画像を確立することができる。
我々は、ニューヨーク・タイムズ(NYT)から自動的に抽出された16k画像と関連するニュース、時間、位置のデータセットTARAと、WITから離れた監視対象として追加で61k例を紹介した。
我々は、最先端のジョイントモデルと人間のパフォーマンスの間に70%のギャップがあることを示し、これは、セグメントワイズ推論を用いて高レベルな視覚言語ジョイントモデルを動機づける提案モデルによってわずかに満たされている。
論文 参考訳(メタデータ) (2022-03-01T21:52:08Z) - Using Social Media Images for Building Function Classification [12.99941371793082]
本研究では,大規模なソーシャルメディア画像データセットから高品質で地上レベルの画像を得るためのフィルタリングパイプラインを提案する。
われわれの方法では、世界中の42都市から2800万枚以上の画像で、文化的に多様なソーシャルメディアデータセットをFlickrから分析する。
微細調整された最先端アーキテクチャは、フィルタ画像上でF1スコアを最大0.51まで生成する。
論文 参考訳(メタデータ) (2022-02-15T11:05:10Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z) - Data-driven Meta-set Based Fine-Grained Visual Classification [61.083706396575295]
本稿では, ノイズの多いWeb画像に対して, 微粒化認識のためのデータ駆動型メタセットベースアプローチを提案する。
具体的には、少量のクリーンなメタセットでガイドされ、メタラーニング方式で選択ネットを訓練し、分布内および分布外ノイズ画像の識別を行う。
論文 参考訳(メタデータ) (2020-08-06T03:04:16Z) - Predicting Semantic Map Representations from Images using Pyramid
Occupancy Networks [27.86228863466213]
単一エンドツーエンドのディープラーニングアーキテクチャを用いて,単分子画像から直接マップを推定する,シンプルで統一的なアプローチを提案する。
提案手法の有効性を,NuScenesとArgoverseデータセット上のいくつかの挑戦的ベースラインに対して評価することで実証する。
論文 参考訳(メタデータ) (2020-03-30T12:39:44Z) - Automatic Signboard Detection and Localization in Densely Populated
Developing Cities [0.0]
自然シーン画像における看板検出は, エラーのない情報検索における最優先課題である。
本稿では,看板を自動的に検出し,そのような都市に適した新しい物体検出手法を提案する。
提案手法では,符号板を正確に検出できる(背景の形状や色が多様であっても平均精度は0.90 mAP)。
論文 参考訳(メタデータ) (2020-03-04T08:04:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。