論文の概要: Synthesizing Forestry Images Conditioned on Plant Phenotype Using a Generative Adversarial Network
- arxiv url: http://arxiv.org/abs/2307.03789v3
- Date: Thu, 16 Jan 2025 04:13:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:07:45.806849
- Title: Synthesizing Forestry Images Conditioned on Plant Phenotype Using a Generative Adversarial Network
- Title(参考訳): ジェネレーティブ・ディバイサル・ネットワークを用いた植物フェノタイプに基づく森林画像の合成
- Authors: Debasmita Pal, Arun Ross,
- Abstract要約: 本研究は, 特定の表現特性, viz. canopy greennessを満たす合成林業画像の生成に焦点を当てた。
我々はGAN(Generative Adversarial Network)を用いて、生物学的に可塑性で表現型的に安定した森林画像の合成を行う。
- 参考スコア(独自算出の注目度): 10.902536447343465
- License:
- Abstract: Plant phenology and phenotype prediction using remote sensing data are increasingly gaining attention within the plant science community as a promising approach to enhance agricultural productivity. This work focuses on generating synthetic forestry images that satisfy certain phenotypic attributes, viz. canopy greenness. We harness a Generative Adversarial Network (GAN) to synthesize biologically plausible and phenotypically stable forestry images conditioned on the greenness of vegetation (a continuous attribute) over a specific region of interest, describing a particular vegetation type in a mixed forest. The training data is based on the automated digital camera imagery provided by the National Ecological Observatory Network (NEON) and processed by the PhenoCam Network. Our method helps render the appearance of forest sites specific to a greenness value. The synthetic images are subsequently utilized to predict another phenotypic attribute, viz., redness of plants. The quality of the synthetic images is assessed using the Structural SIMilarity (SSIM) index and Fr\'echet Inception Distance (FID). Further, the greenness and redness indices of the synthetic images are compared against those of the original images using Root Mean Squared Percentage Error (RMSPE) to evaluate their accuracy and integrity. The generalizability and scalability of our proposed GAN model are established by effectively transforming it to generate synthetic images for other forest sites and vegetation types. From a broader perspective, this approach could be leveraged to visualize forestry based on different phenotypic attributes in the context of various environmental parameters.
- Abstract(参考訳): リモートセンシングデータを用いた植物表現学と表現型予測は、農業生産性を高めるための有望なアプローチとして、植物科学コミュニティ内で注目を集めている。
本研究は, 特定の表現特性, viz. canopy greennessを満たす合成林業画像の生成に焦点を当てた。
本研究はGAN(Generative Adversarial Network)を用いて,植生の緑度(連続的属性)を指標とした,生物学的に可塑性で表現型的に安定した森林画像の合成を行い,混合林における特定の植生タイプについて述べる。
トレーニングデータは、National Ecological Observatory Network(NEON)が提供し、PhenoCam Networkが処理する自動デジタルカメラ画像に基づいている。
本手法は,緑度に比例した森林の出現を推定する上で有効である。
その後、合成画像を用いて、植物の赤みを他の表現型属性であるviz.を予測する。
合成画像の品質は、Structure SIMilarity (SSIM) indexとFr\echet Inception Distance (FID)を用いて評価する。
さらに,RMSPE(Root Mean Squared Percentage Error)を用いて合成画像の緑度と赤度指数を比較し,その精度と精度を評価する。
提案したGANモデルの一般化性と拡張性は,効果的に変換して,他の森林地や植生の合成画像を生成することによって確立される。
より広い視点から見ると、様々な環境パラメータの文脈において、異なる表現型属性に基づいて林業を可視化するために、このアプローチを利用することができる。
関連論文リスト
- An Interpretable Neural Network for Vegetation Phenotyping with Visualization of Trait-Based Spectral Features [0.0]
UPWINS スペクトルライブラリーで訓練された解釈可能なニューラルネットワークで, 種, 健康, 成長段階, 年次変動, 環境条件など, 13種の指標種, 天然の共通背景種を多種多様なメタデータで分析した。
ネットワーク内のニューロンは, ネットワーク重量の可視化を通じて, 化学的および生理的特性のスペクトル指標を学習し, それらの特性が, 実験セット上で90%の精度で, 種同定のためのネットワークによってどのように結合されているかを示す。
論文 参考訳(メタデータ) (2024-07-14T21:20:37Z) - BonnBeetClouds3D: A Dataset Towards Point Cloud-based Organ-level
Phenotyping of Sugar Beet Plants under Field Conditions [30.27773980916216]
農業生産は今後数十年間、気候変動と持続可能性の必要性によって深刻な課題に直面している。
自律無人航空機(UAV)による作物のモニタリングと、ロボットによる非化学雑草によるフィールド管理の進歩は、これらの課題に対処するのに有用である。
表現型化と呼ばれる植物形質の分析は、植物の育種に不可欠な活動であるが、大量の手作業が伴う。
論文 参考訳(メタデータ) (2023-12-22T14:06:44Z) - PlantPlotGAN: A Physics-Informed Generative Adversarial Network for
Plant Disease Prediction [2.7409168462107347]
リアルな植生指標を持つ合成多スペクトルプロット画像を作成することができる物理インフォームド・ジェネレーティブ・モデルであるPlanetPlotGANを提案する。
その結果, PlantPlotGANから生成された合成画像はFr'echet開始距離に関して最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-27T16:56:28Z) - Intriguing properties of synthetic images: from generative adversarial
networks to diffusion models [19.448196464632]
実際の画像と偽画像を区別する上で,どの画像の特徴がより優れているかを知ることが重要である。
本稿では, 実画像と生成画像の最も法学的に関係した特徴を発見することを目的とした, 異なる家系の多数の画像生成装置の系統的研究について報告する。
論文 参考訳(メタデータ) (2023-04-13T11:13:19Z) - Semantic Image Segmentation with Deep Learning for Vine Leaf Phenotyping [59.0626764544669]
本研究では,ブドウの葉のイメージを意味的にセグメント化するためにDeep Learning法を用いて,葉の表現型自動検出システムを開発した。
私たちの研究は、成長や開発のような動的な特性を捉え定量化できる植物ライフサイクルのモニタリングに寄与します。
論文 参考訳(メタデータ) (2022-10-24T14:37:09Z) - Neuroevolution-based Classifiers for Deforestation Detection in Tropical
Forests [62.997667081978825]
森林破壊や荒廃により、毎年何百万ヘクタールもの熱帯林が失われる。
監視・森林破壊検知プログラムは、犯罪者の予防・処罰のための公共政策に加えて、使用されている。
本稿では,熱帯林の森林破壊検出作業におけるニューロ進化技術(NEAT)に基づくパターン分類器の利用を提案する。
論文 参考訳(メタデータ) (2022-08-23T16:04:12Z) - Towards Generating Large Synthetic Phytoplankton Datasets for Efficient
Monitoring of Harmful Algal Blooms [77.25251419910205]
有害な藻類(HAB)は養殖農場で重大な魚死を引き起こす。
現在、有害藻や他の植物プランクトンを列挙する標準的な方法は、顕微鏡でそれらを手動で観察し数えることである。
合成画像の生成にはGAN(Generative Adversarial Networks)を用いる。
論文 参考訳(メタデータ) (2022-08-03T20:15:55Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Temporal Prediction and Evaluation of Brassica Growth in the Field using
Conditional Generative Adversarial Networks [1.2926587870771542]
植物の成長予測は、多種多様な環境要因によって影響を受けるため、大きな課題である。
本稿では,高スループット撮像センサ測定とその自動解析を含む新しいモニタリング手法を提案する。
提案手法のコアは条件付き生成型adversarial networkに基づく新しい機械学習ベースの成長モデルである。
論文 参考訳(メタデータ) (2021-05-17T13:00:01Z) - Identity-Aware CycleGAN for Face Photo-Sketch Synthesis and Recognition [61.87842307164351]
まず,画像生成ネットワークの監視に新たな知覚損失を適用したIACycleGAN(Identity-Aware CycleGAN)モデルを提案する。
眼や鼻などの重要な顔領域の合成により多くの注意を払うことで、フォトエッチング合成におけるサイクガンを改善する。
IACycleGANによる画像の合成を反復的に行う合成モデルと認識モデルとの相互最適化手法を開発した。
論文 参考訳(メタデータ) (2021-03-30T01:30:08Z) - Estimating Crop Primary Productivity with Sentinel-2 and Landsat 8 using
Machine Learning Methods Trained with Radiative Transfer Simulations [58.17039841385472]
我々は,機械モデリングと衛星データ利用の並列化を活用し,作物生産性の高度モニタリングを行う。
本モデルでは, 地域情報を使用しなくても, 各種C3作物の種類, 環境条件の総合的生産性を推定することに成功した。
これは、現在の地球観測クラウドコンピューティングプラットフォームの助けを借りて、新しい衛星センサーから作物の生産性をグローバルにマップする可能性を強調しています。
論文 参考訳(メタデータ) (2020-12-07T16:23:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。