論文の概要: Deep-Learning-based Automated Palm Tree Counting and Geolocation in
Large Farms from Aerial Geotagged Images
- arxiv url: http://arxiv.org/abs/2005.05269v1
- Date: Mon, 11 May 2020 17:11:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 20:11:50.088337
- Title: Deep-Learning-based Automated Palm Tree Counting and Geolocation in
Large Farms from Aerial Geotagged Images
- Title(参考訳): 航空地理タグ画像を用いた大規模農場におけるパームツリーの自動計測と位置情報
- Authors: Adel Ammar, Anis Koubaa
- Abstract要約: 畳み込みニューラルネットワークを用いた空中画像からヤシの木の自動カウントと位置決めのためのフレームワークを提案する。
この目的のために、サウジアラビアのリヤドにあるハルジュ地区のヤシの木農場で、DJIドローンを用いて空中画像を収集した。
- 参考スコア(独自算出の注目度): 1.8782750537161614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a deep learning framework for the automated
counting and geolocation of palm trees from aerial images using convolutional
neural networks. For this purpose, we collected aerial images in a palm tree
Farm in the Kharj region, in Riyadh Saudi Arabia, using DJI drones, and we
built a dataset of around 10,000 instances of palms trees. Then, we developed a
convolutional neural network model using the state-of-the-art, Faster R-CNN
algorithm. Furthermore, using the geotagged metadata of aerial images, we used
photogrammetry concepts and distance corrections to detect the geographical
location of detected palms trees automatically. This geolocation technique was
tested on two different types of drones (DJI Mavic Pro, and Phantom 4 Pro), and
was assessed to provide an average geolocation accuracy of 2.8m. This GPS
tagging allows us to uniquely identify palm trees and count their number from a
series of drone images, while correctly dealing with the issue of image
overlapping. Moreover, it can be generalized to the geolocation of any other
objects in UAV images.
- Abstract(参考訳): 本稿では,畳み込みニューラルネットワークを用いた空中画像からヤシの木の自動計測と位置推定のためのディープラーニングフレームワークを提案する。
この目的のために、サウジアラビアのリヤドにあるkharj地区のヤシの木農場で、djiドローンを使って空中画像を収集し、約1万個のヤシの木をデータセットとして構築した。
そこで我々は,最先端の高速R-CNNアルゴリズムを用いた畳み込みニューラルネットワークモデルを開発した。
さらに, 航空画像のジオタグメタデータを用いて, 検出されたヤシの地理的位置を自動的に検出するために, 測光概念と距離補正を用いた。
この測地技術は2種類のドローン(DJI Mavic ProとPhantom 4 Pro)でテストされ、平均測地精度は2.8mと評価された。
このGPSタグ付けにより、ヤシの木を独自に識別し、一連のドローン画像からその数を数えることができ、画像重複の問題に正しく対処できます。
さらに、UAV画像内の他の物体の位置に一般化することができる。
関連論文リスト
- Game4Loc: A UAV Geo-Localization Benchmark from Game Data [0.0]
クロスビューペアデータの部分的マッチングを含む,より実用的なUAV測位タスクを提案する。
実験により,UAV測地のためのデータとトレーニング手法の有効性が示された。
論文 参考訳(メタデータ) (2024-09-25T13:33:28Z) - Classifying geospatial objects from multiview aerial imagery using semantic meshes [2.116528763953217]
米国における森林の航空画像に基づく樹木種予測手法を提案する。
提案手法は, 木分類に難渋する課題に対して, 53%から75%に分類精度を向上することを示す。
論文 参考訳(メタデータ) (2024-05-15T17:56:49Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - GeoCLIP: Clip-Inspired Alignment between Locations and Images for
Effective Worldwide Geo-localization [61.10806364001535]
世界規模のジオローカライゼーションは、地球上のどこでも撮影された画像の正確な位置を特定することを目的としている。
既存のアプローチは、地球を離散的な地理的細胞に分割し、問題を分類タスクに変換する。
画像と対応するGPS位置のアライメントを強制する新しいCLIPにインスパイアされた画像-GPS検索手法であるGeoCLIPを提案する。
論文 参考訳(メタデータ) (2023-09-27T20:54:56Z) - Semantic Segmentation of Vegetation in Remote Sensing Imagery Using Deep
Learning [77.34726150561087]
本稿では,公開されているリモートセンシングデータからなるマルチモーダル・大規模時間データセットを作成するためのアプローチを提案する。
我々は、異なる種類の植生を分離できる畳み込みニューラルネットワーク(CNN)モデルを使用する。
論文 参考訳(メタデータ) (2022-09-28T18:51:59Z) - Satellite Image Based Cross-view Localization for Autonomous Vehicle [59.72040418584396]
本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
本手法はKITTIとFord Multi-AVの季節データセットを地上ビューとして,Google Mapsを衛星ビューとして検証した。
論文 参考訳(メタデータ) (2022-07-27T13:16:39Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Continuous Self-Localization on Aerial Images Using Visual and Lidar
Sensors [25.87104194833264]
本研究では,車両のセンサ情報を未確認対象領域の航空画像に登録することにより,屋外環境におけるジオトラッキング手法を提案する。
我々は、地上および空中画像から視覚的特徴を抽出するために、計量学習環境でモデルを訓練する。
本手法は,視認不可能な正光の自己局在化のために,エンド・ツー・エンドの微分可能なモデルでオンボードカメラを利用する最初の方法である。
論文 参考訳(メタデータ) (2022-03-07T12:25:44Z) - Development of Automatic Tree Counting Software from UAV Based Aerial
Images With Machine Learning [0.0]
本研究の目的は,UAVによる高解像度画像から,シルト大学キャンパスの指定領域の樹木を自動カウントすることである。
Adobe Photoshopのフォトマージツールを使って、高さ30mで20%オーバーラップした画像を地上局でオフラインで縫い付けました。
論文 参考訳(メタデータ) (2022-01-07T22:32:08Z) - High Definition image classification in Geoscience using Machine
Learning [0.0]
ドローンで撮影されたHDデジタル写真は、地球科学の研究で広く使われている。
ぼやけた画像はしばしば収集されたデータで撮影され、ぼやけた画像とはっきりした画像を区別するのに多くの時間と労力がかかります。
本研究では,SVM(Support Vector Machine)やNN(Neural Network)などの機械学習技術を用いて,GeoscienceのHDイメージを明瞭でぼやけたものとして分類する。
論文 参考訳(メタデータ) (2020-09-25T17:30:03Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。