論文の概要: Generative diffusion models for agricultural AI: plant image generation, indoor-to-outdoor translation, and expert preference alignment
- arxiv url: http://arxiv.org/abs/2512.19632v1
- Date: Mon, 22 Dec 2025 18:07:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.870994
- Title: Generative diffusion models for agricultural AI: plant image generation, indoor-to-outdoor translation, and expert preference alignment
- Title(参考訳): 農業AIのための生成拡散モデル--植物画像生成、屋内から屋外への翻訳、専門家の選好アライメント
- Authors: Da Tan, Michael Beck, Christopher P. Bidinosti, Robert H. Gulden, Christopher J. Henry,
- Abstract要約: 農業人工知能の成功は、大規模で多様で高品質な植物画像データセットに大きく依存している。
本稿では, 植物画像合成, 室内翻訳, 専門家選好の微調整を通じて, これらの課題に対処する拡散モデルについて検討する。
- 参考スコア(独自算出の注目度): 0.683514883811771
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The success of agricultural artificial intelligence depends heavily on large, diverse, and high-quality plant image datasets, yet collecting such data in real field conditions is costly, labor intensive, and seasonally constrained. This paper investigates diffusion-based generative modeling to address these challenges through plant image synthesis, indoor-to-outdoor translation, and expert preference aligned fine tuning. First, a Stable Diffusion model is fine tuned on captioned indoor and outdoor plant imagery to generate realistic, text conditioned images of canola and soybean. Evaluation using Inception Score, Frechet Inception Distance, and downstream phenotype classification shows that synthetic images effectively augment training data and improve accuracy. Second, we bridge the gap between high resolution indoor datasets and limited outdoor imagery using DreamBooth-based text inversion and image guided diffusion, generating translated images that enhance weed detection and classification with YOLOv8. Finally, a preference guided fine tuning framework trains a reward model on expert scores and applies reward weighted updates to produce more stable and expert aligned outputs. Together, these components demonstrate a practical pathway toward data efficient generative pipelines for agricultural AI.
- Abstract(参考訳): 農業人工知能の成功は、大規模で多様で高品質な植物画像データセットに大きく依存するが、実地環境でのデータ収集にはコストがかかり、労働集約的であり、季節的な制約がある。
本稿では, 植物画像合成, 室内翻訳, 専門家選好の微調整を通じて, これらの課題に対処する拡散モデルについて検討する。
まず,室内および屋外の植物画像のキャプションに安定拡散モデルを微調整し,キャノーラと大豆のリアルなテキストコンディショニング画像を生成する。
Inception Score、Frechet Inception Distance、および下流表現型分類を用いた評価は、合成画像がトレーニングデータを効果的に増強し、精度を向上させることを示す。
第2に、DreamBoothベースのテキストインバージョンと画像誘導拡散を用いて、高解像度屋内データセットと限られた屋外画像とのギャップを埋め、YOLOv8による雑草の検出と分類を強化する翻訳画像を生成する。
最後に、選好ガイド付き微調整フレームワークは、専門家のスコアに基づいて報酬モデルをトレーニングし、報酬の重み付けされた更新を適用して、より安定的で専門家の整合した出力を生成する。
これらのコンポーネントは、農業用AIのためのデータ効率の良い生成パイプラインへの実践的な経路を示す。
関連論文リスト
- Synthetic Crop-Weed Image Generation and its Impact on Model Generalization [0.8849672280563691]
Blender を用いた人工雑草画像の手続き的生成のためのパイプラインを提案する。
我々は、合成および実データに基づいて、最先端のセグメンテーションモデルをいくつかベンチマークする。
以上の結果から, 合成画像のトレーニングにより, 従来の最先端手法よりも10%の差が生じることがわかった。
論文 参考訳(メタデータ) (2025-11-04T09:47:09Z) - Enabling Plant Phenotyping in Weedy Environments using Multi-Modal Imagery via Synthetic and Generated Training Data [5.6545322206246516]
我々は、作物と雑草の複雑な混合物を含む1,128個の合成画像のモデルを訓練した。
全合成画像といくつかのラベル付き実画像を組み合わせることで,雑草群では22%,植物群では17%の相対的改善が得られた。
論文 参考訳(メタデータ) (2025-09-23T16:29:13Z) - LoFT: LoRA-fused Training Dataset Generation with Few-shot Guidance [96.6544564242316]
本稿では,Few-shot Guidanceを用いたLoRA-Fused Training-data Generationという新しいデータセット生成フレームワークを提案する。
提案手法は,個々の実画像にLoRA重みを微調整し,推定時に融合させ,実画像の特徴を組み合わせた合成画像を生成し,データの多様性と忠実度を向上させる。
実験の結果,LoFT生成データに対するトレーニングは,他の合成データセット法より一貫して優れており,データセットのサイズが大きくなるにつれて精度が著しく向上することがわかった。
論文 参考訳(メタデータ) (2025-05-16T21:17:55Z) - Data Augmentation via Latent Diffusion for Saliency Prediction [67.88936624546076]
残差予測モデルはラベル付きデータの限られた多様性と量によって制約される。
本研究では,実世界のシーンの複雑さと変動性を保ちながら,自然画像の編集を行うディープ・サリエンシ・予測のための新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2024-09-11T14:36:24Z) - Semi-Self-Supervised Domain Adaptation: Developing Deep Learning Models with Limited Annotated Data for Wheat Head Segmentation [0.10923877073891444]
本稿では,確率的拡散過程を持つ深層畳み込みニューラルネットワークに基づく半自己制御型ドメイン適応手法を提案する。
合成画像-マスク対と無注釈画像の両方を利用する2分岐畳み込みエンコーダ・デコーダモデルアーキテクチャを開発した。
提案されたモデルは、内部テストデータセットで80.7%のDiceスコア、外部テストセットで64.8%のDiceスコアを達成した。
論文 参考訳(メタデータ) (2024-05-12T04:35:49Z) - Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - Generating Diverse Agricultural Data for Vision-Based Farming Applications [74.79409721178489]
このモデルは, 植物の成長段階, 土壌条件の多様性, 照明条件の異なるランダム化フィールド配置をシミュレートすることができる。
我々のデータセットにはセマンティックラベル付き12,000の画像が含まれており、精密農業におけるコンピュータビジョンタスクの包括的なリソースを提供する。
論文 参考訳(メタデータ) (2024-03-27T08:42:47Z) - Stable Diffusion for Data Augmentation in COCO and Weed Datasets [5.81198182644659]
生成モデルは、コンピュータビジョンからインテリアデザインまで、さまざまなタスクに影響を与えている。強力な拡散モデルであるStable Diffusionは、テキストプロンプトや参照画像から複雑な詳細を持つ高解像度画像の作成を可能にする。
本研究は,7つの共通カテゴリーと3つの広く分布する雑草を評価した結果,安定拡散の有効性について検討した。
画像スパースデータセットの強化において,安定拡散の可能性を示した。
論文 参考訳(メタデータ) (2023-12-07T02:23:32Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。