論文の概要: Estimates of maize plant density from UAV RGB images using Faster-RCNN
detection model: impact of the spatial resolution
- arxiv url: http://arxiv.org/abs/2105.11857v1
- Date: Tue, 25 May 2021 11:54:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-26 19:17:55.949340
- Title: Estimates of maize plant density from UAV RGB images using Faster-RCNN
detection model: impact of the spatial resolution
- Title(参考訳): 高速RCNN検出モデルを用いたUAV RGB画像からのトウモロコシ植物密度の推定:空間分解能の影響
- Authors: Kaaviya Velumani, Raul Lopez-Lozano, Simon Madec, Wei Guo, Joss
Gillet, Alexis Comar, Frederic Baret
- Abstract要約: 高分解能(HR)画像は、初期段階に存在する小さな植物を検出するために必要である。
本研究では,イメージグラウンドサンプリング距離(GSD)が3-5葉のトウモロコシ植物検出性能に及ぼす影響について,Faster-RCNNを用いて検討した。
- 参考スコア(独自算出の注目度): 2.757597890229683
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Early-stage plant density is an essential trait that determines the fate of a
genotype under given environmental conditions and management practices. The use
of RGB images taken from UAVs may replace traditional visual counting in fields
with improved throughput, accuracy and access to plant localization. However,
high-resolution (HR) images are required to detect small plants present at
early stages. This study explores the impact of image ground sampling distance
(GSD) on the performances of maize plant detection at 3-5 leaves stage using
Faster-RCNN. Data collected at HR (GSD=0.3cm) over 6 contrasted sites were used
for model training. Two additional sites with images acquired both at high and
low (GSD=0.6cm) resolution were used for model evaluation. Results show that
Faster-RCNN achieved very good plant detection and counting (rRMSE=0.08)
performances when native HR images are used both for training and validation.
Similarly, good performances were observed (rRMSE=0.11) when the model is
trained over synthetic low-resolution (LR) images obtained by down-sampling the
native training HR images, and applied to the synthetic LR validation images.
Conversely, poor performances are obtained when the model is trained on a given
spatial resolution and applied to another spatial resolution. Training on a mix
of HR and LR images allows to get very good performances on the native HR
(rRMSE=0.06) and synthetic LR (rRMSE=0.10) images. However, very low
performances are still observed over the native LR images (rRMSE=0.48), mainly
due to the poor quality of the native LR images. Finally, an advanced
super-resolution method based on GAN (generative adversarial network) that
introduces additional textural information derived from the native HR images
was applied to the native LR validation images. Results show some significant
improvement (rRMSE=0.22) compared to bicubic up-sampling approach.
- Abstract(参考訳): 初期植物密度は、所定の環境条件と管理慣行の下で遺伝子型の運命を決定する必須形質である。
uavから撮影されたrgb画像の使用は、スループット、精度、植物局在性の向上により、従来の視野計数を置き換える可能性がある。
しかし、初期段階に存在する小さな植物を検出するには高分解能(HR)画像が必要である。
本研究では,イメージグラウンドサンプリング距離(GSD)が3-5葉のトウモロコシ植物検出性能に及ぼす影響について,Faster-RCNNを用いて検討した。
6地点以上のHR(GSD=0.3cm)で収集したデータを用いた。
高分解能と低分解能(gsd=0.6cm)の2つの画像がモデル評価に用いられた。
その結果,Faster-RCNNは,ネイティブHR画像がトレーニングと検証の両方に使用される場合,植物検出とカウント(rRMSE=0.08)性能に優れていた。
同様に、ネイティブトレーニングHR画像のダウンサンプリングにより得られた合成低解像度(LR)画像に対してモデルがトレーニングされ(rRMSE=0.11)、合成LR検証画像に適用された。
逆に、与えられた空間分解能でモデルが訓練され、他の空間分解能に適用されると、性能が低下する。
HRとLRの混合画像の訓練は、ネイティブのHR(rRMSE=0.06)と合成LR(rRMSE=0.10)で非常に優れたパフォーマンスが得られる。
しかしながら、ネイティブLR画像(rRMSE=0.48)上では非常に低い性能が観察されている。
最後に、ネイティブのHR画像から得られた追加のテクスチャ情報を導入するGAN(生成逆数ネットワーク)に基づく高度な超解像法を、ネイティブLR検証画像に適用した。
その結果, バイコビックアップサンプリング法と比較して有意な改善が認められた(rRMSE=0.22)。
関連論文リスト
- Efficient Test-Time Adaptation for Super-Resolution with Second-Order
Degradation and Reconstruction [62.955327005837475]
画像超解像(SR)は,低分解能(LR)から高分解能(HR)へのマッピングを,一対のHR-LRトレーニング画像を用いて学習することを目的としている。
SRTTAと呼ばれるSRの効率的なテスト時間適応フレームワークを提案し、SRモデルを異なる/未知の劣化型でテストドメインに迅速に適応させることができる。
論文 参考訳(メタデータ) (2023-10-29T13:58:57Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z) - Real-World Super-Resolution of Face-Images from Surveillance Cameras [25.258587196435464]
本稿では,現実的なLR/HRトレーニングペアを生成するための新しいフレームワークを提案する。
本フレームワークは、実写のぼやけたカーネル、ノイズ分布、JPEG圧縮アーチファクトを推定し、ソース領域のものと類似した画像特性を持つLR画像を生成する。
我々はGANベースのSRモデルを用いて、よく使われるVGG-loss[24]とLPIPS-loss[52]を交換した。
論文 参考訳(メタデータ) (2021-02-05T11:38:30Z) - Frequency Consistent Adaptation for Real World Super Resolution [64.91914552787668]
実シーンにスーパーリゾリューション(SR)法を適用する際に周波数領域の整合性を保証する新しい周波数一貫性適応(FCA)を提案する。
監視されていない画像から劣化カーネルを推定し、対応するLow-Resolution (LR)画像を生成する。
ドメイン一貫性のあるLR-HRペアに基づいて、容易に実装可能な畳み込みニューラルネットワーク(CNN)SRモデルを訓練する。
論文 参考訳(メタデータ) (2020-12-18T08:25:39Z) - Cross-Scale Internal Graph Neural Network for Image Super-Resolution [147.77050877373674]
自然画像における非局所的な自己相似性は、画像修復に有効な先行研究として、よく研究されている。
単一の画像超解像(SISR)の場合、既存のディープ非局所法のほとんどは、低解像度(LR)入力画像と同じ規模のパッチしか利用していない。
これは、新しいクロススケールな内部グラフニューラルネットワーク(IGNN)を用いて実現される。
論文 参考訳(メタデータ) (2020-06-30T10:48:40Z) - Deep Generative Adversarial Residual Convolutional Networks for
Real-World Super-Resolution [31.934084942626257]
我々は,超解像残差畳み込み生成共役ネットワーク(SRResCGAN)を提案する。
これは、生成したLRドメインからHRドメインの画素単位の監督でモデルを逆トレーニングすることで、現実世界の劣化設定に従う。
提案するネットワークは,画像の高精細化と凸最適化によるエネルギーベース目的関数の最小化により,残差学習を利用する。
論文 参考訳(メタデータ) (2020-05-03T00:12:38Z) - PULSE: Self-Supervised Photo Upsampling via Latent Space Exploration of
Generative Models [77.32079593577821]
PULSE (Photo Upsampling via Latent Space Exploration) は、それまで文献になかった解像度で高解像度でリアルな画像を生成する。
本手法は, 従来よりも高分解能, スケールファクターの知覚品質において, 最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-08T16:44:31Z) - Characteristic Regularisation for Super-Resolving Face Images [81.84939112201377]
既存の顔画像超解像法(SR)は、主に人工的にダウンサンプリングされた低解像度(LR)画像の改善に焦点を当てている。
従来の非教師なしドメイン適応(UDA)手法は、未ペアの真のLRとHRデータを用いてモデルをトレーニングすることでこの問題に対処する。
これにより、視覚的特徴を構成することと、画像の解像度を高めることの2つのタスクで、モデルをオーバーストレッチする。
従来のSRモデルとUDAモデルの利点を結合する手法を定式化する。
論文 参考訳(メタデータ) (2019-12-30T16:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。