論文の概要: Robust building footprint extraction from big multi-sensor data using
deep competition network
- arxiv url: http://arxiv.org/abs/2011.02879v3
- Date: Sat, 28 Nov 2020 13:06:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 23:09:36.267465
- Title: Robust building footprint extraction from big multi-sensor data using
deep competition network
- Title(参考訳): ディープコンペティションネットワークを用いた大規模マルチセンサデータからのロバスト建築足跡抽出
- Authors: Mehdi Khoshboresh-Masouleh, Mohammad R. Saradjian
- Abstract要約: 我々は、高分解能光リモートセンシング画像とLiDARデータとを融合した高解像度BFEのためのディープコンペティションネットワーク(DCN)を開発し、評価する。
DCNは5つの符号化復号ブロックからなり、畳み込み重みを持つ2進数表現(超ピクセル)学習を行う。
提案手法は,大規模マルチセンサデータからのロバストなBFEに対する適切な解である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Building footprint extraction (BFE) from multi-sensor data such as optical
images and light detection and ranging (LiDAR) point clouds is widely used in
various fields of remote sensing applications. However, it is still challenging
research topic due to relatively inefficient building extraction techniques
from variety of complex scenes in multi-sensor data. In this study, we develop
and evaluate a deep competition network (DCN) that fuses very high spatial
resolution optical remote sensing images with LiDAR data for robust BFE. DCN is
a deep superpixelwise convolutional encoder-decoder architecture using the
encoder vector quantization with classified structure. DCN consists of five
encoding-decoding blocks with convolutional weights for robust binary
representation (superpixel) learning. DCN is trained and tested in a big
multi-sensor dataset obtained from the state of Indiana in the United States
with multiple building scenes. Comparison results of the accuracy assessment
showed that DCN has competitive BFE performance in comparison with other deep
semantic binary segmentation architectures. Therefore, we conclude that the
proposed model is a suitable solution to the robust BFE from big multi-sensor
data.
- Abstract(参考訳): 光画像やlidar(light detection and ranging)点雲などのマルチセンサーデータからのビルディングフットプリント抽出(bfe)は、リモートセンシングのさまざまな分野で広く使われている。
しかし,マルチセンサデータにおける複雑なシーンからの比較的非効率な構造抽出技術のため,まだ研究課題である。
本研究では,高分解能光リモートセンシング画像と高分解能なBFEのためのLiDARデータとを融合したディープコンペティションネットワーク(DCN)を開発し,評価する。
DCNは、分類された構造を持つエンコーダベクトル量子化を用いた深層超画素単位の畳み込みエンコーダデコーダアーキテクチャである。
DCNは5つの符号化復号ブロックからなり、畳み込み重みを持つ2進数表現(超ピクセル)学習を行う。
DCNは、米国のインディアナ州から取得した大規模なマルチセンサーデータセットでトレーニングされ、テストされている。
精度評価の結果,DCNのBFE性能は,他の深層セマンティックセマンティックセマンティックアーキテクチャと比較して比較した。
そこで,提案手法は大規模マルチセンサデータからのロバストなBFEに対する適切な解である。
関連論文リスト
- Multi-Modal Multi-Task (3MT) Road Segmentation [0.8287206589886879]
我々は、多くのSOTA作業で通常行われているように、代わりに生のセンサー入力を使用することに重点を置いており、高い事前処理コストを必要とするアーキテクチャを活用している。
本研究では,複数センサからのデータをマルチタスク学習アーキテクチャに組み込むことにより,道路セグメンテーションの費用対効果,高精度なソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-23T08:15:15Z) - HRFuser: A Multi-resolution Sensor Fusion Architecture for 2D Object
Detection [0.0]
マルチモーダル2Dオブジェクト検出のためのモジュールアーキテクチャであるHRFuserを提案する。
マルチレゾリューション方式で複数のセンサーを融合させ、任意の数の入力モードにスケールする。
我々は、nuScenesとDENSEデータセットに関する実験を通じて、我々のモデルが追加のモーダルから補完的な特徴を効果的に活用できることを実証する。
論文 参考訳(メタデータ) (2022-06-30T09:40:05Z) - Pyramid Grafting Network for One-Stage High Resolution Saliency
Detection [29.013012579688347]
我々は、異なる解像度画像から特徴を独立して抽出する、Praamid Grafting Network (PGNet) と呼ばれるワンステージフレームワークを提案する。
CNNブランチが壊れた詳細情報をよりホモロジーに組み合わせられるように、アテンションベースのクロスモデルグラフティングモジュール (CMGM) が提案されている。
我々は,4K-8K解像度で5,920個の画像を含む超高分解能塩度検出データセットUHRSDを新たに提供した。
論文 参考訳(メタデータ) (2022-04-11T12:22:21Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - EPNet++: Cascade Bi-directional Fusion for Multi-Modal 3D Object
Detection [56.03081616213012]
本稿では,新しいCasscade Bi-directional Fusion(CB-Fusion)モジュールを導入することで,マルチモーダル3Dオブジェクト検出のためのEPNet++を提案する。
提案したCB-Fusionモジュールは、カスケード双方向相互作用融合方式で画像特徴と点特徴の豊富な意味情報を高める。
KITTI、JRDB、SUN-RGBDデータセットの実験結果は、最先端の手法よりもEPNet++の方が優れていることを示している。
論文 参考訳(メタデータ) (2021-12-21T10:48:34Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z) - Perception-aware Multi-sensor Fusion for 3D LiDAR Semantic Segmentation [59.42262859654698]
3Dセマンティックセグメンテーションは、自動運転やロボット工学など、多くのアプリケーションにおいてシーン理解において重要である。
既存の融合法は、2つのモードの差が大きいため、有望な性能を達成できない。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - GEM: Glare or Gloom, I Can Still See You -- End-to-End Multimodal Object
Detector [11.161639542268015]
厳しい照明条件下での2次元物体検出のためのセンサ対応マルチモーダル融合戦略を提案する。
本ネットワークは,各センサモダリティの測定信頼性をスカラーウェイトとマスクの形で推定する。
提案手法はFLIR-Thermalデータセット上で既存の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-24T14:56:37Z) - MSDPN: Monocular Depth Prediction with Partial Laser Observation using
Multi-stage Neural Networks [1.1602089225841632]
深層学習に基づくマルチステージネットワークアーキテクチャであるMulti-Stage Depth Prediction Network (MSDPN)を提案する。
MSDPNは2次元LiDARと単眼カメラを用いて深度マップを予測する。
実験により,本ネットワークは最先端手法に対して有望な性能を示す。
論文 参考訳(メタデータ) (2020-08-04T08:27:40Z) - Suppress and Balance: A Simple Gated Network for Salient Object
Detection [89.88222217065858]
両問題を同時に解くための単純なゲートネットワーク(GateNet)を提案する。
多レベルゲートユニットの助けを借りて、エンコーダからの貴重なコンテキスト情報をデコーダに最適に送信することができる。
さらに,提案したFold-ASPP操作(Fold-ASPP)に基づくアトラス空間ピラミッドプーリングを用いて,様々なスケールのサリアンオブジェクトを正確に位置決めする。
論文 参考訳(メタデータ) (2020-07-16T02:00:53Z) - NAS-Count: Counting-by-Density with Neural Architecture Search [74.92941571724525]
ニューラルアーキテクチャサーチ(NAS)を用いたカウントモデルの設計を自動化する
エンド・ツー・エンドの検索エンコーダ・デコーダアーキテクチャであるAutomatic Multi-Scale Network(AMSNet)を導入する。
論文 参考訳(メタデータ) (2020-02-29T09:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。