論文の概要: DT/MARS-CycleGAN: Improved Object Detection for MARS Phenotyping Robot
- arxiv url: http://arxiv.org/abs/2310.12787v2
- Date: Fri, 20 Oct 2023 15:55:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 11:13:56.058547
- Title: DT/MARS-CycleGAN: Improved Object Detection for MARS Phenotyping Robot
- Title(参考訳): DT/MARS-CycleGAN:MARS聴取ロボットの物体検出の改善
- Authors: David Liu, Zhengkun Li, Zihao Wu, Changying Li
- Abstract要約: 本研究は、画像拡張のための新しいデジタルツイン(DT)MARS-CycleGANモデルを提案する。
我々は,CycleGANモデルにおけるサイクル整合性損失に加えて,深層学習モデルにおける新たなDT-MARS損失を設計,実施し,MARSが取得した実作物画像とDT MARSが検出した合成画像との矛盾を解消した。
- 参考スコア(独自算出の注目度): 11.869108981066429
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robotic crop phenotyping has emerged as a key technology to assess crops'
morphological and physiological traits at scale. These phenotypical
measurements are essential for developing new crop varieties with the aim of
increasing productivity and dealing with environmental challenges such as
climate change. However, developing and deploying crop phenotyping robots face
many challenges such as complex and variable crop shapes that complicate
robotic object detection, dynamic and unstructured environments that baffle
robotic control, and real-time computing and managing big data that challenge
robotic hardware/software. This work specifically tackles the first challenge
by proposing a novel Digital-Twin(DT)MARS-CycleGAN model for image augmentation
to improve our Modular Agricultural Robotic System (MARS)'s crop object
detection from complex and variable backgrounds. Our core idea is that in
addition to the cycle consistency losses in the CycleGAN model, we designed and
enforced a new DT-MARS loss in the deep learning model to penalize the
inconsistency between real crop images captured by MARS and synthesized images
sensed by DT MARS. Therefore, the generated synthesized crop images closely
mimic real images in terms of realism, and they are employed to fine-tune
object detectors such as YOLOv8. Extensive experiments demonstrated that our
new DT/MARS-CycleGAN framework significantly boosts our MARS' crop object/row
detector's performance, contributing to the field of robotic crop phenotyping.
- Abstract(参考訳): ロボット作物の表現型化は、作物の形態的および生理的特性を大規模に評価するための重要な技術として登場した。
これらの表現型測定は、生産性を高め、気候変動のような環境問題に対処するために、新しい作物品種の開発に不可欠である。
しかし、作物表現型ロボットの開発と展開には、ロボットのオブジェクト検出を複雑にする複雑で可変な作物形状、ロボットの制御を束ねる動的で非構造的な環境、ロボットのハードウェアやソフトウェアに挑戦するビッグデータのリアルタイムコンピューティングと管理など、多くの課題がある。
本研究は、画像拡張のための新しいDigital-Twin(DT)MARS-CycleGANモデルを提案し、複雑で可変な背景から収穫物を検出するモジュール農業ロボットシステム(MARS)を改善することによる、最初の課題に特に取り組む。
我々は,CycleGANモデルにおけるサイクル整合性損失に加えて,深層学習モデルにおける新たなDT-MARS損失を設計・強制し,MARSが取得した実収穫画像とDT MARSが検出した合成画像との整合性を検証した。
そのため、生成した合成作物画像はリアリズムの観点から実像を忠実に模倣し、YOLOv8のような微細な物体検出器に使用される。
広範な実験により,新しいdt/mars-cycleganフレームワークは,火星の作物のオブジェクト・ロウ検出器の性能を著しく向上させ,ロボット作物の表現型化の分野に寄与した。
関連論文リスト
- Generating Diverse Agricultural Data for Vision-Based Farming Applications [74.79409721178489]
このモデルは, 植物の成長段階, 土壌条件の多様性, 照明条件の異なるランダム化フィールド配置をシミュレートすることができる。
我々のデータセットにはセマンティックラベル付き12,000の画像が含まれており、精密農業におけるコンピュータビジョンタスクの包括的なリソースを提供する。
論文 参考訳(メタデータ) (2024-03-27T08:42:47Z) - Enhanced Droplet Analysis Using Generative Adversarial Networks [0.0]
この研究は、DropletGANという画像生成装置を開発し、ドロップレットの画像を生成する。
また、合成データセットを用いた光液滴検出器の開発にも用いられている。
我々の知る限りでは、この研究は初めて、液滴の検出を増強するための生成モデルを用いたものである。
論文 参考訳(メタデータ) (2024-02-24T21:20:53Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Real-time object detection and robotic manipulation for agriculture
using a YOLO-based learning approach [8.482182765640022]
本研究では、畳み込みニューラルネットワーク(CNN)の2つの異なるアーキテクチャを組み合わせた新しいフレームワークを提案する。
シミュレーション環境でのクロップ画像は、ランダムな回転、収穫、明るさ、コントラスト調整を受け、データセット生成のための拡張画像を生成する。
提案手法は,ロボット操作の把握位置を明らかにするために,視覚幾何学グループモデルを用いて取得した画像データを利用する。
論文 参考訳(メタデータ) (2024-01-28T22:30:50Z) - Robotic Handling of Compliant Food Objects by Robust Learning from
Demonstration [79.76009817889397]
本稿では,食品に適合する物体をロボットで把握する上で,実証からの学習(LfD)に基づく頑健な学習方針を提案する。
教師の意図した方針を推定し,無矛盾な実演を自動的に除去するLfD学習ポリシーを提案する。
提案されたアプローチは、前述の業界セクターで幅広い応用が期待できる。
論文 参考訳(メタデータ) (2023-09-22T13:30:26Z) - Towards Generating Large Synthetic Phytoplankton Datasets for Efficient
Monitoring of Harmful Algal Blooms [77.25251419910205]
有害な藻類(HAB)は養殖農場で重大な魚死を引き起こす。
現在、有害藻や他の植物プランクトンを列挙する標準的な方法は、顕微鏡でそれらを手動で観察し数えることである。
合成画像の生成にはGAN(Generative Adversarial Networks)を用いる。
論文 参考訳(メタデータ) (2022-08-03T20:15:55Z) - Generative Adversarial Networks for Image Augmentation in Agriculture: A
Systematic Review [5.639656362091594]
2014年にコンピュータビジョンコミュニティで発明されたGAN(Generative Adversarial Network)は、優れたデータ表現を学習できる新しいアプローチスイートを提供する。
本稿では, GAN アーキテクチャの進化を概観するとともに, 農業への導入を体系的に検討する。
論文 参考訳(メタデータ) (2022-04-10T15:33:05Z) - Vision Transformers For Weeds and Crops Classification Of High
Resolution UAV Images [3.1083892213758104]
ビジョントランスフォーマー(ViT)モデルは、畳み込み操作を適用することなく、競争またはより良い結果を達成することができる。
実験の結果,ラベル付きトレーニングデータでは,最新のCNNモデルと比較して,ViTモデルの方が優れていた。
論文 参考訳(メタデータ) (2021-09-06T19:58:54Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - Estimating Crop Primary Productivity with Sentinel-2 and Landsat 8 using
Machine Learning Methods Trained with Radiative Transfer Simulations [58.17039841385472]
我々は,機械モデリングと衛星データ利用の並列化を活用し,作物生産性の高度モニタリングを行う。
本モデルでは, 地域情報を使用しなくても, 各種C3作物の種類, 環境条件の総合的生産性を推定することに成功した。
これは、現在の地球観測クラウドコンピューティングプラットフォームの助けを借りて、新しい衛星センサーから作物の生産性をグローバルにマップする可能性を強調しています。
論文 参考訳(メタデータ) (2020-12-07T16:23:13Z) - Multi-Spectral Image Synthesis for Crop/Weed Segmentation in Precision
Farming [3.4788711710826083]
本稿では, 精密農業における作物・雑草の分枝化問題に適用し, 共通データ増分法に関する代替手法を提案する。
我々は、最も関連性の高いオブジェクトクラス(作物や雑草)を合成されたクラスに置き換えることで、半人工的なサンプルを作成する。
RGBデータに加えて、近赤外(NIR)情報も考慮し、4つのチャネルマルチスペクトル合成画像を生成する。
論文 参考訳(メタデータ) (2020-09-12T08:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。