論文の概要: Towards Generating Large Synthetic Phytoplankton Datasets for Efficient
Monitoring of Harmful Algal Blooms
- arxiv url: http://arxiv.org/abs/2208.02332v1
- Date: Wed, 3 Aug 2022 20:15:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:29:08.313999
- Title: Towards Generating Large Synthetic Phytoplankton Datasets for Efficient
Monitoring of Harmful Algal Blooms
- Title(参考訳): 有害アルガルブルームの効率的なモニタリングのための大規模合成植物プランクトンデータセットの作成に向けて
- Authors: Nitpreet Bamra, Vikram Voleti, Alexander Wong, Jason Deglint
- Abstract要約: 有害な藻類(HAB)は養殖農場で重大な魚死を引き起こす。
現在、有害藻や他の植物プランクトンを列挙する標準的な方法は、顕微鏡でそれらを手動で観察し数えることである。
合成画像の生成にはGAN(Generative Adversarial Networks)を用いる。
- 参考スコア(独自算出の注目度): 77.25251419910205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Climate change is increasing the frequency and severity of harmful algal
blooms (HABs), which cause significant fish deaths in aquaculture farms. This
contributes to ocean pollution and greenhouse gas (GHG) emissions since dead
fish are either dumped into the ocean or taken to landfills, which in turn
negatively impacts the climate. Currently, the standard method to enumerate
harmful algae and other phytoplankton is to manually observe and count them
under a microscope. This is a time-consuming, tedious and error-prone process,
resulting in compromised management decisions by farmers. Hence, automating
this process for quick and accurate HAB monitoring is extremely helpful.
However, this requires large and diverse datasets of phytoplankton images, and
such datasets are hard to produce quickly. In this work, we explore the
feasibility of generating novel high-resolution photorealistic synthetic
phytoplankton images, containing multiple species in the same image, given a
small dataset of real images. To this end, we employ Generative Adversarial
Networks (GANs) to generate synthetic images. We evaluate three different GAN
architectures: ProjectedGAN, FastGAN, and StyleGANv2 using standard image
quality metrics. We empirically show the generation of high-fidelity synthetic
phytoplankton images using a training dataset of only 961 real images. Thus,
this work demonstrates the ability of GANs to create large synthetic datasets
of phytoplankton from small training datasets, accomplishing a key step towards
sustainable systematic monitoring of harmful algal blooms.
- Abstract(参考訳): 気候変動は有害な藻類(HABs)の頻度と重症度を高めており、養殖農場で魚の死亡が著しい。
これは海洋汚染と温室効果ガス(ghg)の排出に寄与するが、これは死んだ魚が海に投棄されたり埋め立てられたりすることで、気候に悪影響を及ぼす。
現在、有害藻類やその他の植物プランクトンを列挙する標準的な方法は、顕微鏡で手動で観察し数えることである。
これは時間を要する、退屈で、エラーを起こしやすいプロセスであり、結果として農家による管理上の決定が損なわれる。
したがって、このプロセスを迅速かつ正確なHABモニタリングのために自動化することは極めて有用である。
しかし、これには大規模で多様な植物プランクトン画像のデータセットが必要であり、このようなデータセットを迅速に作成することは困難である。
本研究では,複数の種を同一画像に含む新しい高分解能光合成植物プランクトン画像の作成の可能性について検討する。
そこで我々は、GAN(Generative Adversarial Networks)を用いて合成画像を生成する。
我々は,標準画像品質指標を用いてprojectedgan,fastgan,styleganv2の3種類のganアーキテクチャを評価した。
実画像961のトレーニングデータセットを用いて,高忠実度合成植物プランクトン画像の生成実験を行った。
そこで本研究では,gansが小規模のトレーニングデータセットから植物プランクトンの大規模な合成データセットを作成できることを示し,有害藻類群集の持続的系統的監視に向けた重要なステップを明らかにした。
関連論文リスト
- Recognition of Harmful Phytoplankton from Microscopic Images using Deep Learning [1.03590082373586]
プランクトン分布のモニタリングは、水生生態系の保全、地球環境の規制、環境保護の確保に不可欠である。
従来の監視方法は、しばしば時間を要する、コストがかかり、エラーが発生し、大規模アプリケーションには適さない。
ResNet, ResNeXt, DenseNet, EfficientNetなどの最新のCNNモデルを3つの伝達学習手法を用いて評価し, 顕微鏡画像から有害植物プランクトン11種の分類を行った。
論文 参考訳(メタデータ) (2024-09-19T16:42:53Z) - A deep learning approach for marine snow synthesis and removal [55.86191108738564]
本稿では,深層学習技術を用いた海洋雪の干渉低減手法を提案する。
まず,GAN(Generative Adversarial Network)モデルを用いて,現実的な積雪サンプルを合成する。
次に、画像から画像への変換タスクとして海洋性除雪を行うためにU-Netモデルを訓練する。
論文 参考訳(メタデータ) (2023-11-27T07:19:41Z) - PlantPlotGAN: A Physics-Informed Generative Adversarial Network for
Plant Disease Prediction [2.7409168462107347]
リアルな植生指標を持つ合成多スペクトルプロット画像を作成することができる物理インフォームド・ジェネレーティブ・モデルであるPlanetPlotGANを提案する。
その結果, PlantPlotGANから生成された合成画像はFr'echet開始距離に関して最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-27T16:56:28Z) - Efficient Unsupervised Learning for Plankton Images [12.447149371717]
水生生態系の保全には,シチューにおけるプランクトン群集のモニタリングが不可欠である。
このようなデータを分類するための機械学習アルゴリズムの採用は、手動アノテーションの大幅なコストに影響される可能性がある。
プランクトン微生物の正確な分類を行うために,効率的な教師なし学習パイプラインを提案する。
論文 参考訳(メタデータ) (2022-09-14T15:33:16Z) - Ensembles of Vision Transformers as a New Paradigm for Automated
Classification in Ecology [0.0]
データ効率のよい画像変換器(DeiTs)のアンサンブルが従来のSOTA(SOTA)よりも大幅に優れていたことを示す。
テストしたすべてのデータセットに対して、新しいSOTAを実現し、以前のSOTAの18.48%から87.50%の誤差を削減した。
論文 参考訳(メタデータ) (2022-03-03T14:16:22Z) - Deep Learning Classification of Lake Zooplankton [0.0]
湖沼プランクトンの同定のために開発された深層学習モデルについて述べる。
この目的のために,我々は17900年の動物園プランクトンと大型植物プランクトンコロニーの画像に対して35のクラスに注釈を付けた。
最良モデルは転送学習とアンサンブルに基づいて,98%の精度と93%のF1スコアでプランクトン画像を分類した。
論文 参考訳(メタデータ) (2021-08-11T14:57:43Z) - Spatial-Temporal Super-Resolution of Satellite Imagery via Conditional
Pixel Synthesis [66.50914391487747]
高精度な高解像度画像を生成するために,高解像度の高解像度画像を用いた条件付き画素合成モデルを提案する。
我々は,本モデルにおいて,オブジェクトカウントという重要なダウンストリームタスクにおいて,フォトリアリスティックなサンプル品質を実現し,競合するベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-22T02:16:24Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Estimating Crop Primary Productivity with Sentinel-2 and Landsat 8 using
Machine Learning Methods Trained with Radiative Transfer Simulations [58.17039841385472]
我々は,機械モデリングと衛星データ利用の並列化を活用し,作物生産性の高度モニタリングを行う。
本モデルでは, 地域情報を使用しなくても, 各種C3作物の種類, 環境条件の総合的生産性を推定することに成功した。
これは、現在の地球観測クラウドコンピューティングプラットフォームの助けを借りて、新しい衛星センサーから作物の生産性をグローバルにマップする可能性を強調しています。
論文 参考訳(メタデータ) (2020-12-07T16:23:13Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。