論文の概要: A Deep Learning Generative Model Approach for Image Synthesis of Plant
Leaves
- arxiv url: http://arxiv.org/abs/2111.03388v1
- Date: Fri, 5 Nov 2021 10:53:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-08 19:07:54.004974
- Title: A Deep Learning Generative Model Approach for Image Synthesis of Plant
Leaves
- Title(参考訳): 植物葉の画像合成のためのディープラーニング生成モデルアプローチ
- Authors: Alessandrop Benfenati and Davide Bolzi and Paola Causin and Roberto
Oberti
- Abstract要約: 我々は,高度深層学習(DL)技術を用いて,人工葉画像の自動生成を行う。
我々は、現代の作物管理のためのAIアプリケーションのためのトレーニングサンプルのソースを処分することを目指している。
- 参考スコア(独自算出の注目度): 62.997667081978825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objectives. We generate via advanced Deep Learning (DL) techniques artificial
leaf images in an automatized way. We aim to dispose of a source of training
samples for AI applications for modern crop management. Such applications
require large amounts of data and, while leaf images are not truly scarce,
image collection and annotation remains a very time--consuming process. Data
scarcity can be addressed by augmentation techniques consisting in simple
transformations of samples belonging to a small dataset, but the richness of
the augmented data is limited: this motivates the search for alternative
approaches. Methods. Pursuing an approach based on DL generative models, we
propose a Leaf-to-Leaf Translation (L2L) procedure structured in two steps:
first, a residual variational autoencoder architecture generates synthetic leaf
skeletons (leaf profile and veins) starting from companions binarized skeletons
of real images. In a second step, we perform translation via a Pix2pix
framework, which uses conditional generator adversarial networks to reproduce
the colorization of leaf blades, preserving the shape and the venation pattern.
Results. The L2L procedure generates synthetic images of leaves with a
realistic appearance. We address the performance measurement both in a
qualitative and a quantitative way; for this latter evaluation, we employ a DL
anomaly detection strategy which quantifies the degree of anomaly of synthetic
leaves with respect to real samples. Conclusions. Generative DL approaches have
the potential to be a new paradigm to provide low-cost meaningful synthetic
samples for computer-aided applications. The present L2L approach represents a
step towards this goal, being able to generate synthetic samples with a
relevant qualitative and quantitative resemblance to real leaves.
- Abstract(参考訳): 目的。
我々は,高度深層学習(DL)技術を用いて,人工葉画像の自動生成を行う。
我々は、現代の作物管理のためのAIアプリケーションのためのトレーニングサンプルのソースを処分することを目指している。
このようなアプリケーションは大量のデータを必要とし、葉のイメージは本当に不足していないが、画像収集とアノテーションは非常に時間がかかるプロセスである。
データの不足は、小さなデータセットに属するサンプルの単純な変換による拡張技術によって対処できるが、拡張データの豊かさは限られている。
メソッド。
dl生成モデルに基づくアプローチを追求し, 残差変分オートエンコーダによる合成葉骨格(リーフプロファイルと静脈)の生成と, 実画像の2値化骨格からの合成葉骨格(リーフプロファイルと静脈)の生成を2段階構成したリーフ・ツー・リーフ変換(l2l)手法を提案する。
第2のステップでは、条件付きジェネレータ対向ネットワークを用いて葉の羽根の着色を再現し、形状と静脈パターンを保存するPix2pixフレームワークを用いて翻訳を行う。
結果だ
L2L法は、現実的な外観で葉の合成画像を生成する。
本評価では,実試料に対する合成葉の異常度を定量化するdl異常検出戦略を採用する。
結論だ
生成型DLアプローチは、コンピュータ支援アプリケーションに低コストで有意義な合成サンプルを提供するための新しいパラダイムとなる可能性がある。
現在のl2lアプローチはこの目標に向けての一歩であり、実際の葉と関連する質的かつ定量的に類似した合成サンプルを生成することができる。
関連論文リスト
- Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - Bi-Modality Medical Image Synthesis Using Semi-Supervised Sequential
Generative Adversarial Networks [35.358653509217994]
本稿では,GANと半教師付き学習に基づく双方向医療画像合成手法を提案する。
提案手法は, 2つのモードの画像を逐次的に合成する2つの生成モジュールから構成される。
視覚的および定量的な結果から,本手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-27T10:39:33Z) - Explore the Power of Synthetic Data on Few-shot Object Detection [27.26215175101865]
Few-shot Object Detection (FSOD) は、トレーニングのいくつかの例に限って、新しいカテゴリのオブジェクト検出器を拡張することを目的としている。
近年のテキスト・画像生成モデルでは,高品質な画像を生成する上で有望な結果が得られている。
この研究は、最先端のテキスト・ツー・イメージ・ジェネレータから生成された合成画像がFSODタスクにどのように貢献するかを幅広く研究している。
論文 参考訳(メタデータ) (2023-03-23T12:34:52Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - FewGAN: Generating from the Joint Distribution of a Few Images [95.6635227371479]
本稿では,新しい,高品質で多様な画像を生成するための生成モデルFewGANを紹介する。
FewGANは、第1の粗いスケールで量子化を適用した階層的なパッチGANであり、その後、より微細なスケールで残った完全畳み込みGANのピラミッドが続く。
大規模な実験では、FewGANは定量的にも定性的にも基線より優れていることが示されている。
論文 参考訳(メタデータ) (2022-07-18T07:11:28Z) - GLIDE: Towards Photorealistic Image Generation and Editing with
Text-Guided Diffusion Models [16.786221846896108]
テキスト条件画像合成問題に対する拡散モデルについて検討し、2つの異なるガイダンス戦略を比較した。
後者は、フォトリアリズムとキャプションの類似性の両方において、人間の評価者によって好まれており、しばしばフォトリアリスティックなサンプルを生成する。
我々のモデルは、画像のインペイントを行うように微調整することができ、強力なテキスト駆動画像編集を可能にします。
論文 参考訳(メタデータ) (2021-12-20T18:42:55Z) - METGAN: Generative Tumour Inpainting and Modality Synthesis in Light
Sheet Microscopy [4.872960046536882]
本稿では,実解剖情報を活用し,腫瘍の現実的な画像ラベル対を生成する新しい生成法を提案する。
解剖学的画像とラベルのためのデュアルパス生成器を構築し, 独立して事前学習されたセグメンタによって制約された, サイクル一貫性のある設定で学習する。
生成した画像は,既存の手法に比べて定量的に顕著に改善された。
論文 参考訳(メタデータ) (2021-04-22T11:18:17Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - From Real to Synthetic and Back: Synthesizing Training Data for
Multi-Person Scene Understanding [0.7519872646378835]
特定のシナリオで対話する複数の人物の自然に見える画像を合成する手法を提案する。
これらの画像は、合成データの利点の恩恵を受けている。
合成領域と実領域のギャップを低減するため,以下のステップからなるパイプラインを導入する。
論文 参考訳(メタデータ) (2020-06-03T09:02:06Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。