論文の概要: Enlisting 3D Crop Models and GANs for More Data Efficient and
Generalizable Fruit Detection
- arxiv url: http://arxiv.org/abs/2108.13344v1
- Date: Mon, 30 Aug 2021 16:11:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:59:37.555244
- Title: Enlisting 3D Crop Models and GANs for More Data Efficient and
Generalizable Fruit Detection
- Title(参考訳): 効率良く汎用的な果実検出のための3次元作物モデルとganの登録
- Authors: Zhenghao Fei, Alex Olenskyj, Brian N. Bailey, Mason Earles
- Abstract要約: 本稿では,合成3次元作物モデルドメインから実世界の作物ドメインへの農業画像生成手法を提案する。
本手法は, 果実の位置と形状を保存するために, 意味的に制約されたGAN (generative adversarial network) を用いる。
ブドウ品種検出タスクにおける増分訓練実験により,本手法から生成した画像がドメインプロセスを大幅に高速化できることが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training real-world neural network models to achieve high performance and
generalizability typically requires a substantial amount of labeled data,
spanning a broad range of variation. This data-labeling process can be both
labor and cost intensive. To achieve desirable predictive performance, a
trained model is typically applied into a domain where the data distribution is
similar to the training dataset. However, for many agricultural machine
learning problems, training datasets are collected at a specific location,
during a specific period in time of the growing season. Since agricultural
systems exhibit substantial variability in terms of crop type, cultivar,
management, seasonal growth dynamics, lighting condition, sensor type, etc, a
model trained from one dataset often does not generalize well across domains.
To enable more data efficient and generalizable neural network models in
agriculture, we propose a method that generates photorealistic agricultural
images from a synthetic 3D crop model domain into real world crop domains. The
method uses a semantically constrained GAN (generative adversarial network) to
preserve the fruit position and geometry. We observe that a baseline CycleGAN
method generates visually realistic target domain images but does not preserve
fruit position information while our method maintains fruit positions well.
Image generation results in vineyard grape day and night images show the visual
outputs of our network are much better compared to a baseline network.
Incremental training experiments in vineyard grape detection tasks show that
the images generated from our method can significantly speed the domain
adaption process, increase performance for a given number of labeled images
(i.e. data efficiency), and decrease labeling requirements.
- Abstract(参考訳): 高いパフォーマンスと一般化性を達成するために、現実世界のニューラルネットワークモデルをトレーニングするには、一般的に大量のラベル付きデータが必要である。
このデータラベル付けプロセスは、労力とコストの両方がかかる可能性がある。
望ましい予測性能を達成するために、トレーニングされたモデルは通常、トレーニングデータセットとデータ分散が類似した領域に適用される。
しかし、多くの農業機械学習問題では、成長シーズンの特定の期間に、特定の場所でトレーニングデータセットが収集される。
農業システムは、作物の種類、品種、管理、季節的成長のダイナミクス、照明条件、センサータイプなどにおいてかなりの多様性を示すため、あるデータセットから訓練されたモデルがドメイン間でうまく一般化しないことが多い。
農業におけるデータ効率と汎用性を高めるために,合成3次元作物モデルドメインから実世界作物ドメインへフォトリアリスティックな農業画像を生成する手法を提案する。
本手法は, 果実の位置と形状を保存するために, 意味的に制約されたGAN (generative adversarial network) を用いる。
ベースライン・サイクガン法は視覚的な対象領域画像を生成するが, 果実位置情報を保存せず, 果実位置を良好に維持する。
ビニヤードグレープの昼夜画像における画像生成結果から,ネットワークの視覚的出力がベースラインネットワークよりもはるかに優れていることが分かる。
ブドウ栽培ブドウ検出タスクにおけるインクリメンタルなトレーニング実験により,本手法から生成した画像はドメイン適応過程を著しく高速化し,ラベル付き画像(すなわち,ラベル付き画像)の性能を向上させることができることが示された。
データ効率)とラベル付け要件の削減。
関連論文リスト
- DataDream: Few-shot Guided Dataset Generation [90.09164461462365]
実データ分布をより忠実に表現する分類データセットを合成するためのフレームワークを提案する。
DataDream fine-tunes LoRA weights for the image generation model on the few real image before generated the training data using the adapt model。
次に、合成データを用いてCLIPのLoRA重みを微調整し、様々なデータセットに対する以前のアプローチよりも下流画像の分類を改善する。
論文 参考訳(メタデータ) (2024-07-15T17:10:31Z) - Regularized Training with Generated Datasets for Name-Only Transfer of Vision-Language Models [36.59260354292177]
近年のテキスト・画像生成の進歩により、研究者は生成モデルを用いて知覚モデルに適したデータセットを生成するようになった。
我々は、実際の画像にアクセスせずに、視覚言語モデルを特定の分類モデルに微調整することを目指している。
生成した画像の忠実度が高いにもかかわらず、生成したデータセットを用いてモデルを微調整すると、顕著な性能劣化が観測された。
論文 参考訳(メタデータ) (2024-06-08T10:43:49Z) - Few-Shot Fruit Segmentation via Transfer Learning [4.616529139444651]
移動学習を用いた内野果実のセマンティックセマンティックセマンティックセマンティクスフレームワークを開発した。
都会のシーン解析における同様の成功を機に,我々は特別事前学習を提案する。
プレトレーニングモデルでは, 地上に落ちてきた果実と木上の果実の区別が可能であることを示す。
論文 参考訳(メタデータ) (2024-05-04T04:05:59Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Cross-domain and Cross-dimension Learning for Image-to-Graph
Transformers [50.576354045312115]
直接画像からグラフへの変換は、単一のモデルにおけるオブジェクトの検出と関係予測を解決するための課題である。
画像-グラフ変換器のクロスドメインおよびクロス次元変換学習を可能にする一連の手法を提案する。
そこで我々は,2次元の衛星画像上でモデルを事前学習し,それを2次元および3次元の異なるターゲット領域に適用する。
論文 参考訳(メタデータ) (2024-03-11T10:48:56Z) - Diversify Your Vision Datasets with Automatic Diffusion-Based
Augmentation [66.6546668043249]
ALIA(Automated Language-Guided Image Augmentation)は、大規模ビジョンと言語モデルを用いてデータセットのドメインの自然言語記述を自動的に生成する手法である。
データ整合性を維持するために、オリジナルのデータセットでトレーニングされたモデルは、最小限の画像編集とクラス関連情報を破損したデータをフィルタリングする。
そこで本研究では,ALIAが従来のデータ拡張や,詳細な分類作業におけるテキストから画像への変換を超越できることを示す。
論文 参考訳(メタデータ) (2023-05-25T17:43:05Z) - Inside Out: Transforming Images of Lab-Grown Plants for Machine Learning
Applications in Agriculture [0.0]
我々は,室内の植物像をフィールド画像として解釈するために,コントラッシブ・アンペア変換 (CUT) 生成敵ネットワーク (GAN) を用いる。
我々は,1つの植物のみを含むイメージを翻訳するようにネットワークを訓練する一方で,複数の植物野画像を生成するために容易に拡張可能であることを示す。
また, 人工マルチプラント画像を用いて, いくつかのYoloV5ナノオブジェクト検出モデルを訓練し, 植物検出を行う。
論文 参考訳(メタデータ) (2022-11-05T20:51:45Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - Facilitated machine learning for image-based fruit quality assessment in
developing countries [68.8204255655161]
自動画像分類は食品科学における教師あり機械学習の一般的な課題である。
事前学習型視覚変換器(ViT)に基づく代替手法を提案する。
標準的なデバイス上で限られたリソースで簡単に実装できる。
論文 参考訳(メタデータ) (2022-07-10T19:52:20Z) - Generative Adversarial Networks for Image Augmentation in Agriculture: A
Systematic Review [5.639656362091594]
2014年にコンピュータビジョンコミュニティで発明されたGAN(Generative Adversarial Network)は、優れたデータ表現を学習できる新しいアプローチスイートを提供する。
本稿では, GAN アーキテクチャの進化を概観するとともに, 農業への導入を体系的に検討する。
論文 参考訳(メタデータ) (2022-04-10T15:33:05Z) - Multi-Spectral Image Synthesis for Crop/Weed Segmentation in Precision
Farming [3.4788711710826083]
本稿では, 精密農業における作物・雑草の分枝化問題に適用し, 共通データ増分法に関する代替手法を提案する。
我々は、最も関連性の高いオブジェクトクラス(作物や雑草)を合成されたクラスに置き換えることで、半人工的なサンプルを作成する。
RGBデータに加えて、近赤外(NIR)情報も考慮し、4つのチャネルマルチスペクトル合成画像を生成する。
論文 参考訳(メタデータ) (2020-09-12T08:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。