論文の概要: Semantic Labeling of Large-Area Geographic Regions Using Multi-View and
Multi-Date Satellite Images and Noisy OSM Training Labels
- arxiv url: http://arxiv.org/abs/2008.10271v5
- Date: Sun, 27 Jun 2021 02:50:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 11:51:59.632743
- Title: Semantic Labeling of Large-Area Geographic Regions Using Multi-View and
Multi-Date Satellite Images and Noisy OSM Training Labels
- Title(参考訳): 多視点・多次元衛星画像とノイズOSMトレーニングラベルを用いた大面積地理領域のセマンティックラベリング
- Authors: Bharath Comandur and Avinash C. Kak
- Abstract要約: 建物や道路を意味的にラベル付けする新しい多視点学習フレームワークとCNNアーキテクチャを提案する。
多視点セマンティックセグメンテーションへのアプローチは,従来の手法に比べてクラスごとのIoUスコアが4-7%向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel multi-view training framework and CNN architecture for
combining information from multiple overlapping satellite images and noisy
training labels derived from OpenStreetMap (OSM) to semantically label
buildings and roads across large geographic regions (100 km$^2$). Our approach
to multi-view semantic segmentation yields a 4-7% improvement in the per-class
IoU scores compared to the traditional approaches that use the views
independently of one another. A unique (and, perhaps, surprising) property of
our system is that modifications that are added to the tail-end of the CNN for
learning from the multi-view data can be discarded at the time of inference
with a relatively small penalty in the overall performance. This implies that
the benefits of training using multiple views are absorbed by all the layers of
the network. Additionally, our approach only adds a small overhead in terms of
the GPU-memory consumption even when training with as many as 32 views per
scene. The system we present is end-to-end automated, which facilitates
comparing the classifiers trained directly on true orthophotos vis-a-vis first
training them on the off-nadir images and subsequently translating the
predicted labels to geographical coordinates. With no human supervision, our
IoU scores for the buildings and roads classes are 0.8 and 0.64 respectively
which are better than state-of-the-art approaches that use OSM labels and that
are not completely automated.
- Abstract(参考訳): 本稿では,OpenStreetMap(OSM)から得られた複数の重なり合う衛星画像とノイズの多いトレーニングラベルから,大規模地域(100 km$^2$)にわたる建物や道路を意味的にラベル付けする,新しい多視点トレーニングフレームワークとCNNアーキテクチャを提案する。
多視点セマンティックセグメンテーションへのアプローチは、クラスごとのIoUスコアを4-7%改善する。
我々のシステムのユニークな特性は、マルチビューデータから学習するためにCNNの尾端に追加される修正は、全体的なパフォーマンスにおいて比較的小さなペナルティを持つ推論時に破棄できるということです。
これは、複数のビューを使ったトレーニングの利点がネットワークのすべてのレイヤに吸収されることを意味する。
さらに、当社のアプローチでは、1シーンあたり32ビューのトレーニングであっても、GPUメモリ消費のオーバーヘッドが小さいだけである。
提案するシステムはエンドツーエンド自動で, 真の正光線を直接訓練した分類器を, 最初はオフナディア画像で訓練し, その後, 予測されたラベルを地理的座標に翻訳する。
人間の監督がないため、当社のIoUスコアは0.8と0.64であり、OSMラベルを使用する最先端のアプローチよりも優れており、完全に自動化されていない。
関連論文リスト
- MMEarth: Exploring Multi-Modal Pretext Tasks For Geospatial Representation Learning [9.540487697801531]
MMEarthは、グローバルスケールでの多様なマルチモーダル事前トレーニングデータセットである。
光衛星画像の汎用表現を学習するために,MP-MAE(Multi-Pretext Masked Autoencoder)アプローチを提案する。
論文 参考訳(メタデータ) (2024-05-04T23:16:48Z) - CSP: Self-Supervised Contrastive Spatial Pre-Training for
Geospatial-Visual Representations [90.50864830038202]
ジオタグ付き画像の自己教師型学習フレームワークであるContrastive Spatial Pre-Training(CSP)を提案する。
デュアルエンコーダを用いて画像とその対応する位置情報を別々に符号化し、コントラスト目的を用いて画像から効果的な位置表現を学習する。
CSPは、様々なラベル付きトレーニングデータサンプリング比と10~34%の相対的な改善で、モデル性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-01T23:11:18Z) - Enhancing Self-Supervised Learning for Remote Sensing with Elevation
Data: A Case Study with Scarce And High Level Semantic Labels [1.534667887016089]
本研究は、地球観測下流タスクに適用された事前学習モデルに対する、教師なしと教師なしのハイブリッド学習手法を提案する。
我々は、事前訓練モデルに対する対照的なアプローチと画素単位の回帰事前テキストタスクを組み合わせることで、粗い標高マップを予測する。
論文 参考訳(メタデータ) (2023-04-13T23:01:11Z) - UniFormer: Unifying Convolution and Self-attention for Visual
Recognition [69.68907941116127]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、ここ数年で主要なフレームワークである。
コンボリューションと自己注意の利点を簡潔なトランスフォーマー形式にシームレスに統合する新しいUnified TransFormer(UniFormer)を提案する。
我々のUniFormerはImageNet-1K分類において86.3トップ1の精度を実現している。
論文 参考訳(メタデータ) (2022-01-24T04:39:39Z) - Seed the Views: Hierarchical Semantic Alignment for Contrastive
Representation Learning [116.91819311885166]
一つの画像から生成されたビューをtextbfCross-samples や Multi-level representation に拡張することで,階層的なセマンティックアライメント戦略を提案する。
提案手法はCsMlと呼ばれ,サンプル間の多層視覚表現を堅牢な方法で統合する機能を備えている。
論文 参考訳(メタデータ) (2020-12-04T17:26:24Z) - Semantics through Time: Semi-supervised Segmentation of Aerial Videos
with Iterative Label Propagation [16.478668565965243]
本稿では,SegPropの導入によって自動アノテーションへの重要な一歩を踏み出す。
SegPropは、空間と時間におけるスペクトルクラスタリングに直接接続する、新しい反復フローベースの手法である。
Ruralscapesは、50フレーム毎に高解像度(4K)イメージと手動で注釈付けされた高密度ラベルを備えた、新しいデータセットである。
われわれの小説『SegProp』は、残っていない98%のフレームを90%を超える精度で自動的に注釈付けする。
論文 参考訳(メタデータ) (2020-10-02T15:15:50Z) - Knowledge-Guided Multi-Label Few-Shot Learning for General Image
Recognition [75.44233392355711]
KGGRフレームワークは、ディープニューラルネットワークと統計ラベル相関の事前知識を利用する。
まず、統計ラベルの共起に基づいて異なるラベルを相関させる構造化知識グラフを構築する。
次に、ラベルセマンティクスを導入し、学習セマンティクス固有の特徴をガイドする。
グラフノードの相互作用を探索するためにグラフ伝搬ネットワークを利用する。
論文 参考訳(メタデータ) (2020-09-20T15:05:29Z) - Efficient Full Image Interactive Segmentation by Leveraging Within-image
Appearance Similarity [39.17599924322882]
インタラクティブなフルイメージセマンティックセマンティックセグメンテーションのための新しいアプローチを提案する。
ラベル付き画素からラベルなしピクセルへの伝搬は必ずしもクラス固有の知識を必要としない。
この観測に基づいて,複数のクラスから画素ラベルを共同で伝播する手法を提案する。
論文 参考訳(メタデータ) (2020-07-16T08:21:59Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z) - On the Texture Bias for Few-Shot CNN Segmentation [21.349705243254423]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクを実行するために形状によって駆動される。
最近の証拠は、CNNのテクスチャバイアスが、大きなラベル付きトレーニングデータセットで学習するときに、より高いパフォーマンスのモデルを提供することを示している。
本稿では,特徴空間内の高周波局所成分を減衰させるために,ガウス差分(DoG)の集合を統合する新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-09T11:55:47Z) - RGB-based Semantic Segmentation Using Self-Supervised Depth Pre-Training [77.62171090230986]
本稿では,任意の意味的RGBセグメンテーション手法の事前学習に使用できる,スケーラブルで自己管理の容易な手法を提案する。
特に、我々の事前学習アプローチでは、深度センサーを用いて得られるラベルを自動生成する。
提案したHNラベルによる自己教師付き事前学習が,ImageNetの事前学習にどのように応用できるかを示す。
論文 参考訳(メタデータ) (2020-02-06T11:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。