論文の概要: Identifying the exterior image of buildings on a 3D map and extracting
elevation information using deep learning and digital image processing
- arxiv url: http://arxiv.org/abs/2201.01081v1
- Date: Tue, 4 Jan 2022 10:59:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 14:05:02.196505
- Title: Identifying the exterior image of buildings on a 3D map and extracting
elevation information using deep learning and digital image processing
- Title(参考訳): 深層学習とデジタル画像処理による3次元地図上の建物外像の同定と標高情報抽出
- Authors: Donghwa Shon, Byeongjoon Noh and Nahyang Byun
- Abstract要約: 本研究の目的は,建物外装の外観に関連する情報を抽出する基礎的手法を提示し,評価することである。
地図から画像の抽出と前処理を行った後,Fast R-CNN(Regions with Convolutional Neuron Networks)モデルを用いて情報を同定した。
その結果,建物の高さおよび窓部分の検出では,約93%,91%の精度が得られた。
- 参考スコア(独自算出の注目度): 0.3867363075280544
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite the fact that architectural administration information in Korea has
been providing high-quality information for a long period of time, the level of
utility of the information is not high because it focuses on administrative
information. While this is the case, a three-dimensional (3D) map with higher
resolution has emerged along with the technological development. However, it
cannot function better than visual transmission, as it includes only image
information focusing on the exterior of the building. If information related to
the exterior of the building can be extracted or identified from a 3D map, it
is expected that the utility of the information will be more valuable as the
national architectural administration information can then potentially be
extended to include such information regarding the building exteriors to the
level of BIM(Building Information Modeling). This study aims to present and
assess a basic method of extracting information related to the appearance of
the exterior of a building for the purpose of 3D mapping using deep learning
and digital image processing. After extracting and preprocessing images from
the map, information was identified using the Fast R-CNN(Regions with
Convolutional Neuron Networks) model. The information was identified using the
Faster R-CNN model after extracting and preprocessing images from the map. As a
result, it showed approximately 93% and 91% accuracy in terms of detecting the
elevation and window parts of the building, respectively, as well as excellent
performance in an experiment aimed at extracting the elevation information of
the building. Nonetheless, it is expected that improved results will be
obtained by supplementing the probability of mixing the false detection rate or
noise data caused by the misunderstanding of experimenters in relation to the
unclear boundaries of windows.
- Abstract(参考訳): 韓国における建築管理情報は長年にわたって高品質な情報を提供してきたが、行政情報に焦点を当てた情報の実用性は高くない。
このような状況ではあるものの、高解像度の3次元マップが技術開発とともに出現している。
しかし、ビルの外見に焦点を絞った画像情報のみを含むため、視覚伝達よりは機能しない。
ビルの外装に関する情報を3dマップから抽出又は特定できるのであれば、国の建築管理情報がbim(building information modeling)のレベルにビル外装に関する情報を含めるように拡張できるため、その情報の有用性が高まることが期待される。
本研究では, 深層学習とデジタル画像処理を用いた3次元マッピングを目的とした, 建物外装の外観に関する情報抽出の基礎的手法を提示し, 評価することを目的とする。
地図から画像の抽出と前処理を行った後,Fast R-CNN(Regions with Convolutional Neuron Networks)モデルを用いて情報を同定した。
地図から画像抽出および前処理を行った後,より高速なr-cnnモデルを用いて情報を同定した。
その結果,建物の高さと窓部分の検出では,約93%,91%の精度を示し,建物の標高情報を抽出する実験では優れた性能を示した。
いずれにせよ,実験者の誤解による誤検出率やノイズデータとの混合確率を窓の曖昧な境界に関して補うことで,改良された結果が得られることが期待される。
関連論文リスト
- MVSDet: Multi-View Indoor 3D Object Detection via Efficient Plane Sweeps [51.44887282336391]
多視点屋内3次元物体検出の課題は、画像から正確な幾何学情報を推測して正確な3次元物体検出を行うことである。
それまでの手法は、幾何推論にNeRFに依存していた。
平面スイープを用いた3次元物体検出のためのMVSDetを提案する。
論文 参考訳(メタデータ) (2024-10-28T21:58:41Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - Building Extraction from Remote Sensing Images via an Uncertainty-Aware
Network [18.365220543556113]
ビルの抽出は、都市計画や都市動態モニタリングなど、多くの応用において重要な役割を担っている。
本稿では,この問題を緩和するために,新規で簡単なUncertainty-Aware Network(UANet)を提案する。
その結果、提案したUANetは、他の最先端アルゴリズムよりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-07-23T12:42:15Z) - Semi-supervised Learning from Street-View Images and OpenStreetMap for
Automatic Building Height Estimation [59.6553058160943]
本稿では,Mapillary SVIとOpenStreetMapのデータから建物の高さを自動的に推定する半教師付き学習(SSL)手法を提案する。
提案手法は, 平均絶対誤差(MAE)が約2.1mである建物の高さを推定する上で, 明らかな性能向上につながる。
予備結果は,低コストなVGIデータに基づく提案手法のスケールアップに向けた今後の取り組みを期待し,動機づけるものである。
論文 参考訳(メタデータ) (2023-07-05T18:16:30Z) - There is a Time and Place for Reasoning Beyond the Image [63.96498435923328]
画像は人間の目へのピクセルだけでなく、他のソースからのコンテキスト情報から推論、関連付け、推論して、推論することで、より完全な画像を確立することができる。
我々は、ニューヨーク・タイムズ(NYT)から自動的に抽出された16k画像と関連するニュース、時間、位置のデータセットTARAと、WITから離れた監視対象として追加で61k例を紹介した。
我々は、最先端のジョイントモデルと人間のパフォーマンスの間に70%のギャップがあることを示し、これは、セグメントワイズ推論を用いて高レベルな視覚言語ジョイントモデルを動機づける提案モデルによってわずかに満たされている。
論文 参考訳(メタデータ) (2022-03-01T21:52:08Z) - Ground material classification and for UAV-based photogrammetric 3D data
A 2D-3D Hybrid Approach [1.3359609092684614]
近年,物理環境を表す3次元仮想データを作成するために,多くの領域でフォトグラム法が広く用いられている。
これらの最先端技術は、迅速な3D戦場再建、仮想訓練、シミュレーションを目的として、アメリカ陸軍と海軍の注意を引き付けている。
論文 参考訳(メタデータ) (2021-09-24T22:29:26Z) - Mapping Vulnerable Populations with AI [23.732584273099054]
構築機能は、例えばツイートや地上画像などのソーシャルメディアデータを解析することで検索される。
これらの付加属性を付加したマップの構築により、より正確な人口密度マップを導出することができる。
論文 参考訳(メタデータ) (2021-07-29T15:52:11Z) - Focusing on Shadows for Predicting Heightmaps from Single Remotely
Sensed RGB Images with Deep Learning [3.42658286826597]
本研究では,リモートセンシング画像のシャドウマップを利用したタスク指向ディープラーニングモデルを提案し,その高さマップを算出する。
英国マンチェスターの広大なエリアをカバーするデータセットでモデルを検証する。
論文 参考訳(メタデータ) (2021-04-22T05:31:13Z) - Fully Automated Photogrammetric Data Segmentation and Object Information
Extraction Approach for Creating Simulation Terrain [0.0]
本研究は,全自動写真計測データセグメンテーションとオブジェクト情報抽出フレームワークを開発することを目的とする。
トレーニングやシミュレーションのためのリアルな仮想環境を作成する際のデータのユースケースを考えると、データのセグメンテーションとオブジェクト情報の抽出が不可欠である。
論文 参考訳(メタデータ) (2020-08-09T09:32:09Z) - PointContrast: Unsupervised Pre-training for 3D Point Cloud
Understanding [107.02479689909164]
本研究では,3次元表現学習の研究を支援することを目的とする。
教師なし事前学習が3Dシーンの大規模なソースセットに与える影響を計測する。
論文 参考訳(メタデータ) (2020-07-21T17:59:22Z) - Expandable YOLO: 3D Object Detection from RGB-D Images [64.14512458954344]
本稿では,ステレオカメラから深度とカラー画像を入力する軽量物体検出器の構築を目的とする。
YOLOv3のネットワークアーキテクチャを中央から3Dに拡張することにより、深さ方向の出力が可能となる。
領域抽出結果の精度を確認するため、3次元空間におけるユニノン(IoU)の切断を導入する。
論文 参考訳(メタデータ) (2020-06-26T07:32:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。