論文の概要: SkyScapes -- Fine-Grained Semantic Understanding of Aerial Scenes
- arxiv url: http://arxiv.org/abs/2007.06102v1
- Date: Sun, 12 Jul 2020 21:44:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 05:55:34.909952
- Title: SkyScapes -- Fine-Grained Semantic Understanding of Aerial Scenes
- Title(参考訳): SkyScapes - 航空シーンの微粒化セマンティック理解
- Authors: Seyed Majid Azimi, Corentin Henry, Lars Sommer, Arne Schumann and
Eleonora Vig
- Abstract要約: 画素レベルのセマンティックラベリングのための高精度できめ細かいアノテーションを備えた航空画像データセットであるSkyScapesを紹介した。
SkyScapesは、建物、道路、植生などの大きな構造から、レーンマーキングの12(サブカテゴリ)のような細部まで、31のセマンティックカテゴリのアノテーションを提供している。
セマンティックエッジ検出を取り入れた新しいマルチタスクモデルを提案する。
- 参考スコア(独自算出の注目度): 11.624882816971049
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Understanding the complex urban infrastructure with centimeter-level accuracy
is essential for many applications from autonomous driving to mapping,
infrastructure monitoring, and urban management. Aerial images provide valuable
information over a large area instantaneously; nevertheless, no current dataset
captures the complexity of aerial scenes at the level of granularity required
by real-world applications. To address this, we introduce SkyScapes, an aerial
image dataset with highly-accurate, fine-grained annotations for pixel-level
semantic labeling. SkyScapes provides annotations for 31 semantic categories
ranging from large structures, such as buildings, roads and vegetation, to fine
details, such as 12 (sub-)categories of lane markings. We have defined two main
tasks on this dataset: dense semantic segmentation and multi-class lane-marking
prediction. We carry out extensive experiments to evaluate state-of-the-art
segmentation methods on SkyScapes. Existing methods struggle to deal with the
wide range of classes, object sizes, scales, and fine details present. We
therefore propose a novel multi-task model, which incorporates semantic edge
detection and is better tuned for feature extraction from a wide range of
scales. This model achieves notable improvements over the baselines in region
outlines and level of detail on both tasks.
- Abstract(参考訳): 複雑な都市インフラをセンチメートルレベルの精度で理解することは、自動運転からマッピング、インフラモニタリング、都市管理に至るまで、多くのアプリケーションにとって不可欠である。
航空画像は瞬時に広い範囲にわたって貴重な情報を提供するが、現在のデータセットでは実世界のアプリケーションに必要な粒度レベルでの航空シーンの複雑さを捉えていない。
これを解決するために,高精度で微細なアノテーションを画素レベルのセマンティックラベルに付加した航空画像データセットSkyScapesを導入する。
skyscapesは、建物、道路、植生などの大きな構造から、レーンマークの12の(サブ)カテゴリといった詳細まで、31のセマンティックカテゴリにアノテーションを提供している。
このデータセットでは, セマンティックセマンティックセグメンテーションとマルチクラスレーンマーキング予測という2つの主要なタスクを定義した。
本研究では,SkyScapesにおける最先端セグメンテーション手法の評価を行う。
既存のメソッドは、幅広いクラス、オブジェクトサイズ、スケール、詳細な詳細を扱うのに苦労しています。
そこで本研究では,セマンティックエッジ検出を取り入れたマルチタスクモデルを提案する。
このモデルは、領域の概要と両方のタスクの詳細レベルにおけるベースラインよりも顕著に改善されている。
関連論文リスト
- FRACTAL: An Ultra-Large-Scale Aerial Lidar Dataset for 3D Semantic Segmentation of Diverse Landscapes [0.0]
7つのセマンティッククラスのための高品質なラベル付き10万個の高密度点雲からなる超大規模空中Lidarデータセットを提案する。
データセットのデータ収集,アノテーション,キュレーションプロセスについて述べる。
アート3Dポイントクラウド分類モデルを用いて,ベースラインのセマンティックセマンティックセマンティクス結果を提供する。
論文 参考訳(メタデータ) (2024-05-07T19:37:22Z) - Aerial Lifting: Neural Urban Semantic and Building Instance Lifting from Aerial Imagery [51.73680703579997]
航空画像から都市規模のセマンティックスとビルレベルのインスタンスセグメンテーションのためのニューラルラジアンスフィールド法を提案する。
都市空撮画像の物体は、建物、車、道路など、相当な大きさのバリエーションを示している。
我々は,様々な大きさのオブジェクトのセグメンテーションを強化する,スケール適応型セマンティックラベル融合戦略を導入する。
次に、2次元のインスタンスラベルにおける多視点不整合問題を緩和するために、新しいクロスビューインスタンスラベルグループ化戦略を導入する。
論文 参考訳(メタデータ) (2024-03-18T14:15:39Z) - Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - LISNeRF Mapping: LiDAR-based Implicit Mapping via Semantic Neural Fields for Large-Scale 3D Scenes [2.822816116516042]
大規模セマンティックマッピングは、屋外の自律エージェントが計画やナビゲーションといった高度なタスクを遂行するために不可欠である。
本稿では,提案するLiDAR測度のみでの暗黙的表現による大規模3次元意味再構築手法を提案する。
論文 参考訳(メタデータ) (2023-11-04T03:55:38Z) - An Informative Path Planning Framework for Active Learning in UAV-based
Semantic Mapping [27.460481202195012]
無人航空機(UAV)は、航空地図や一般的な監視作業に頻繁に使用される。
近年のディープラーニングの進歩により、画像の自動セマンティックセグメンテーションが実現され、大規模な複雑な環境の解釈が容易になった。
モデル再学習のための情報的訓練画像を自律的に取得するための,UAVのための新しい汎用的計画フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-07T09:41:21Z) - SensatUrban: Learning Semantics from Urban-Scale Photogrammetric Point
Clouds [52.624157840253204]
センサットウルバン(SensatUrban)は、イギリスの3都市から収集された7.6km2の30億点近くからなる、都市規模のUAV測光点クラウドデータセットである。
データセットの各ポイントは、粒度の細かいセマンティックアノテーションでラベル付けされ、その結果、既存の最大のフォトグラムポイントクラウドデータセットの3倍の大きさのデータセットが生成される。
論文 参考訳(メタデータ) (2022-01-12T14:48:11Z) - Segmentation of VHR EO Images using Unsupervised Learning [19.00071868539993]
単一のラベルのないシーンでトレーニングできる教師なしセマンティックセマンティックセマンティクス手法を提案する。
提案手法は、この特性を利用して、より大きなシーンから小さなパッチをサンプリングする。
対象画像/シーンの教師なしトレーニングの後、モデルはシーンに存在する主要なクラスを自動的に分離し、セグメンテーションマップを生成する。
論文 参考訳(メタデータ) (2021-07-09T11:42:48Z) - Towards Single Stage Weakly Supervised Semantic Segmentation [2.28438857884398]
弱教師付きセマンティックセグメンテーションへのシングルステージアプローチを提案する。
ポイントアノテーションを使用して、オンザフライで信頼性の高い擬似マスクを生成します。
我々は、最近の実世界のデータセットにおいて、他のSOTA WSSS手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-06-18T18:34:50Z) - Towards Semantic Segmentation of Urban-Scale 3D Point Clouds: A Dataset,
Benchmarks and Challenges [52.624157840253204]
我々は、30億点近い注釈付きポイントを持つ都市規模の測光点クラウドデータセットを提示する。
私たちのデータセットは、イギリスの3つの都市からなり、都市の景観の約7.6km2をカバーしています。
我々は,データセット上での最先端アルゴリズムの性能を評価し,その結果を包括的に分析する。
論文 参考訳(メタデータ) (2020-09-07T14:47:07Z) - Campus3D: A Photogrammetry Point Cloud Benchmark for Hierarchical
Understanding of Outdoor Scene [76.4183572058063]
複数の屋外シーン理解タスクに対して,リッチな注釈付き3Dポイントクラウドデータセットを提案する。
データセットは階層型ラベルとインスタンスベースのラベルの両方でポイントワイズアノテートされている。
本稿では,3次元点雲分割のための階層的学習問題を定式化し,様々な階層間の整合性を評価することを提案する。
論文 参考訳(メタデータ) (2020-08-11T19:10:32Z) - Weakly Supervised Attention Pyramid Convolutional Neural Network for
Fine-Grained Visual Classification [71.96618723152487]
注意ピラミッド畳み込みニューラルネットワーク(AP-CNN)について紹介する。
AP-CNNは高レベルのセマンティックと低レベルの詳細な特徴表現の両方を学ぶ。
追加のバウンディングボックス/パートアノテーションを必要とせずに、エンドツーエンドでトレーニングすることができる。
論文 参考訳(メタデータ) (2020-02-09T12:33:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。