論文の概要: UAV-based Visual Remote Sensing for Automated Building Inspection
- arxiv url: http://arxiv.org/abs/2209.13418v1
- Date: Tue, 27 Sep 2022 14:18:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 16:28:15.751661
- Title: UAV-based Visual Remote Sensing for Automated Building Inspection
- Title(参考訳): uavによる建物自動検査のための視覚リモートセンシング
- Authors: Kushagra Srivastava, Dhruv Patel, Aditya Kumar Jha, Mohhit Kumar Jha,
Jaskirat Singh, Ravi Kiran Sarvadevabhatla, Pradeep Kumar Ramancharla,
Harikumar Kandath and K. Madhava Krishna
- Abstract要約: 無人航空機(UAV)にコンピュータビジョンを組み込んだリモートセンシングシステムでは,地震時の建物建設や災害時の被害評価などの災害管理を支援する可能性を実証している。
本稿では,UAVに基づく画像データ収集による検査の自動化手法と,地震構造パラメータの推定を支援する後処理用ソフトウェアライブラリを提案する。
- 参考スコア(独自算出の注目度): 15.471860216370251
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unmanned Aerial Vehicle (UAV) based remote sensing system incorporated with
computer vision has demonstrated potential for assisting building construction
and in disaster management like damage assessment during earthquakes. The
vulnerability of a building to earthquake can be assessed through inspection
that takes into account the expected damage progression of the associated
component and the component's contribution to structural system performance.
Most of these inspections are done manually, leading to high utilization of
manpower, time, and cost. This paper proposes a methodology to automate these
inspections through UAV-based image data collection and a software library for
post-processing that helps in estimating the seismic structural parameters. The
key parameters considered here are the distances between adjacent buildings,
building plan-shape, building plan area, objects on the rooftop and rooftop
layout. The accuracy of the proposed methodology in estimating the
above-mentioned parameters is verified through field measurements taken using a
distance measuring sensor and also from the data obtained through Google Earth.
Additional details and code can be accessed from https://uvrsabi.github.io/ .
- Abstract(参考訳): 無人航空機(UAV)にコンピュータビジョンを組み込んだリモートセンシングシステムでは,地震時の建物建設や災害時の被害評価などの災害管理を支援する可能性が示された。
地震に対する建物の脆弱性は、関連するコンポーネントの損傷進行と構造システム性能へのコンポーネントの貢献を考慮に入れた検査によって評価することができる。
これらの検査のほとんどは手作業で行われ、人力、時間、コストの高利用につながる。
本稿では,UAVに基づく画像データ収集による検査の自動化手法と,地震構造パラメータの推定を支援する後処理用ソフトウェアライブラリを提案する。
ここで考慮される重要なパラメータは、隣接する建物間の距離、建物の計画形状、建築計画エリア、屋上にある物、屋上レイアウトである。
上記のパラメータ推定における提案手法の精度は,距離計測センサを用いたフィールド計測と,google earthから得られたデータを用いて検証した。
詳細とコードはhttps://uvrsabi.github.io/からアクセスできる。
関連論文リスト
- OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Automated Detection and Counting of Windows using UAV Imagery based
Remote Sensing [8.74136199846241]
建物内に存在する窓の数は、地震で受ける変形の大きさと直接関係している。
本研究では,無人航空機(UAV)を用いたリモートセンシングシステムを用いて,建物の窓数を正確に検出・カウントする手法を提案する。
提案手法は,UAV搭載カメラおよび他のセンサからのデータを利用するコンピュータビジョンパイプラインを開発することにより,ウィンドウの識別とカウントを自動化する。
論文 参考訳(メタデータ) (2023-11-24T18:08:42Z) - One-class Damage Detector Using Deeper Fully-Convolutional Data
Descriptions for Civil Application [0.0]
モデルパラメータを最適化するために、通常の画像を使用することができる点において、一級損傷検出アプローチには利点がある。
本稿では,FCDDをベースラインモデルとして再現した一級損傷検出の汎用アプリケーションを提案する。
論文 参考訳(メタデータ) (2023-03-03T06:27:15Z) - Novel Building Detection and Location Intelligence Collection in Aerial
Satellite Imagery [2.093287944284448]
空撮画像における建物構造の検出と情報化は、都市計画と管理にとって重要な解決策である。
地震時の避難ルートの計画、洪水管理など、重要な問題に答える中心となる部分である。
論文 参考訳(メタデータ) (2023-02-06T23:30:51Z) - LiDAR-guided object search and detection in Subterranean Environments [12.265807098187297]
この研究は、視覚と深度センサーの相補的な性質を利用して、より長距離での物体検出を支援するマルチモーダル情報を活用する。
提案された研究は、DARPA Subterranean Challengeのファイナルで収集されたデータセットに基づいて、地下の環境でANYmalの四足歩行ロボットを用いて徹底的に検証されている。
論文 参考訳(メタデータ) (2022-10-26T19:38:19Z) - Multi-view deep learning for reliable post-disaster damage
classification [0.0]
本研究は,人工知能(AI)と多視点画像を用いた,より信頼性の高い建築損傷分類を実現することを目的とする。
提案モデルでは, ハリケーン・ハーヴェイに続き, 調査対象の建物について, 専門家ラベル付きジオタグ付き画像を含む偵察視覚データセットを訓練し, 検証した。
論文 参考訳(メタデータ) (2022-08-06T01:04:13Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - Rethinking Drone-Based Search and Rescue with Aerial Person Detection [79.76669658740902]
航空ドローンの映像の視覚検査は、現在土地捜索救助(SAR)活動に不可欠な部分である。
本稿では,この空中人物検出(APD)タスクを自動化するための新しいディープラーニングアルゴリズムを提案する。
本稿では,Aerial Inspection RetinaNet (AIR) アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-11-17T21:48:31Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z) - RescueNet: Joint Building Segmentation and Damage Assessment from
Satellite Imagery [83.49145695899388]
RescueNetは、建物を同時に分割し、個々の建物に対する損傷レベルを評価し、エンドツーエンドでトレーニングできる統一モデルである。
RescueNetは大規模で多様なxBDデータセットでテストされており、従来の手法よりもはるかに優れたセグメンテーションと損傷分類性能を実現している。
論文 参考訳(メタデータ) (2020-04-15T19:52:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。