論文の概要: Detection of Degraded Acacia tree species using deep neural networks on
uav drone imagery
- arxiv url: http://arxiv.org/abs/2204.07096v1
- Date: Thu, 14 Apr 2022 16:37:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 15:28:38.613770
- Title: Detection of Degraded Acacia tree species using deep neural networks on
uav drone imagery
- Title(参考訳): uavドローン画像を用いた深層ニューラルネットワークを用いた劣化アカシア樹種の検出
- Authors: Anne Achieng Osio, Ho\`ang-\^An L\^e, Samson Ayugi, Fred Onyango,
Peter Odwe, S\'ebastien Lef\`evre
- Abstract要約: 無人航空機(UAV)とRGBカメラが組み込まれ、転倒したアカシア・サントホフロアの木を捕獲した。
深いニューラルネットワークは倒木検出に使われた。
Retina-Netモデルは38.9%の精度と57.9%のリコールを達成した。
- 参考スコア(独自算出の注目度): 2.3837581572935505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep-learning-based image classification and object detection has been
applied successfully to tree monitoring. However, studies of tree crowns and
fallen trees, especially on flood inundated areas, remain largely unexplored.
Detection of degraded tree trunks on natural environments such as water,
mudflats, and natural vegetated areas is challenging due to the mixed colour
image backgrounds. In this paper, Unmanned Aerial Vehicles (UAVs), or drones,
with embedded RGB cameras were used to capture the fallen Acacia Xanthophloea
trees from six designated plots around Lake Nakuru, Kenya. Motivated by the
need to detect fallen trees around the lake, two well-established deep neural
networks, i.e. Faster Region-based Convolution Neural Network (Faster R-CNN)
and Retina-Net were used for fallen tree detection. A total of 7,590
annotations of three classes on 256 x 256 image patches were used for this
study. Experimental results show the relevance of deep learning in this
context, with Retina-Net model achieving 38.9% precision and 57.9% recall.
- Abstract(参考訳): ディープラーニングに基づく画像分類とオブジェクト検出は、ツリーモニタリングに成功している。
しかし、特に洪水による浸水地域における樹冠や落葉樹の研究はほとんど未調査のままである。
混色画像の背景が混在しているため, 水, 泥団地, 自然植生地帯などの自然環境における劣化樹幹の検出は困難である。
本稿では,ケニアのナクル湖周辺6カ所から落葉したアカシアxanthophloeaの木を撮影するために,無人航空機(uavs)またはrgbカメラを組み込んだドローンを用いた。
湖周辺で倒れた木を検出する必要性により、より高速な領域ベースの畳み込みニューラルネットワーク(Faster R-CNN)とRetina-Netという2つの確立されたディープニューラルネットワークが倒木検出に使用された。
本研究は,256 x 256画像パッチを用いた3クラス合計7,590アノテーションを用いた。
実験の結果、網膜ネットモデルは38.9%の精度で57.9%のリコールを達成した。
関連論文リスト
- PlantCamo: Plant Camouflage Detection [60.685139083469956]
本稿では,植物カモフラージュ検出(PCD)の課題を紹介する。
この問題に対処するため,カモフラージュ植物を用いた1,250枚の画像からなるPlantCamoデータセットを導入した。
提案したデータセット上で20以上の最先端CODモデルを用いて大規模なベンチマーク研究を行う。
マルチスケールのグローバル機能拡張と改良により,PCNetはパフォーマンスを上回りました。
論文 参考訳(メタデータ) (2024-10-23T06:51:59Z) - Comparative Analysis of Novel View Synthesis and Photogrammetry for 3D Forest Stand Reconstruction and extraction of individual tree parameters [2.153174198957389]
光度測定は一般的に森林の景観の再構築に使われるが、低効率や低品質といった課題に直面している。
NeRFは、天蓋領域ではよいが、視野が限られている地上領域ではエラーが発生する可能性がある。
3DGS法は胸の高さ(DBH)の精度に影響を及ぼすスペーサー点雲を生成する。
論文 参考訳(メタデータ) (2024-10-08T07:53:21Z) - Exploring Geometry of Blind Spots in Vision Models [56.47644447201878]
CNNやトランスフォーマーのような視覚モデルにおける過敏性の現象について検討する。
本稿では,入力空間に対する信頼度の高い領域を反復的に探索するレベルセットトラバースアルゴリズムを提案する。
モデルが高い信頼度を維持するこれらの連結高次元領域の範囲を推定する。
論文 参考訳(メタデータ) (2023-10-30T18:00:33Z) - Classification of Single Tree Decay Stages from Combined Airborne LiDAR
Data and CIR Imagery [1.4589991363650008]
この研究は、初めて、個々の木(ノルウェー・スプルース)を5つの崩壊段階に自動的に分類した。
3つの異なる機械学習手法 - 3Dポイントクラウドベースのディープラーニング(KPConv)、畳み込みニューラルネットワーク(CNN)、ランダムフォレスト(RF)。
KPConv、CNN、RFの合計精度は88.8%、88.4%、85.9%に達した。
論文 参考訳(メタデータ) (2023-01-04T22:20:16Z) - Neuroevolution-based Classifiers for Deforestation Detection in Tropical
Forests [62.997667081978825]
森林破壊や荒廃により、毎年何百万ヘクタールもの熱帯林が失われる。
監視・森林破壊検知プログラムは、犯罪者の予防・処罰のための公共政策に加えて、使用されている。
本稿では,熱帯林の森林破壊検出作業におけるニューロ進化技術(NEAT)に基づくパターン分類器の利用を提案する。
論文 参考訳(メタデータ) (2022-08-23T16:04:12Z) - Individual Tree Detection in Large-Scale Urban Environments using High-Resolution Multispectral Imagery [1.1661668662828382]
本研究では,都市環境における個々の木検出のための新しい深層学習手法を提案する。
畳み込みニューラルネットワークを用いて、個々の木の位置を示す信頼マップを回帰する。
本手法は,公共空間とプライベート空間の両方で樹木を検出することによって,完全な空間被覆を実現する。
論文 参考訳(メタデータ) (2022-08-22T21:26:57Z) - Development of Automatic Tree Counting Software from UAV Based Aerial
Images With Machine Learning [0.0]
本研究の目的は,UAVによる高解像度画像から,シルト大学キャンパスの指定領域の樹木を自動カウントすることである。
Adobe Photoshopのフォトマージツールを使って、高さ30mで20%オーバーラップした画像を地上局でオフラインで縫い付けました。
論文 参考訳(メタデータ) (2022-01-07T22:32:08Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Coconut trees detection and segmentation in aerial imagery using mask
region-based convolution neural network [3.8902657229395907]
深層学習のアプローチは、世界銀行がOpenMapとWeRoboticsと共同で提供している空中画像におけるココナッツトレーの検知とセグメンテーションのためのものである。
全体の91%がココナッツ樹検出の平均精度であった。
論文 参考訳(メタデータ) (2021-05-10T13:42:19Z) - Probing Predictions on OOD Images via Nearest Categories [97.055916832257]
ニューラルネットワークが未確認のクラスや破損したイメージから画像を分類する際のアウト・オブ・ディストリビューション(OOD)予測挙動について検討する。
我々は、トレーニングセットにおいて、最も近い隣人と同じラベルで分類されたOOD入力の分数を計算するため、新しい測度、最も近いカテゴリ一般化(NCG)を導入する。
我々は、OODデータがロバストネス半径よりも遥かに遠くにある場合でも、ロバストネットワークは自然訓練よりも一貫してNCG精度が高いことを発見した。
論文 参考訳(メタデータ) (2020-11-17T07:42:27Z) - Learning CNN filters from user-drawn image markers for coconut-tree
image classification [78.42152902652215]
本稿では,CNNの特徴抽出器を訓練するために,最小限のユーザ選択画像を必要とする手法を提案する。
本手法は,クラスを識別する画像領域のユーザ描画マーカーから,各畳み込み層のフィルタを学習する。
バックプロパゲーションに基づく最適化には依存せず、ココナッツツリー空中画像のバイナリ分類にその利点を実証する。
論文 参考訳(メタデータ) (2020-08-08T15:50:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。