論文の概要: Real-time object detection and robotic manipulation for agriculture
using a YOLO-based learning approach
- arxiv url: http://arxiv.org/abs/2401.15785v1
- Date: Sun, 28 Jan 2024 22:30:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 16:39:15.285088
- Title: Real-time object detection and robotic manipulation for agriculture
using a YOLO-based learning approach
- Title(参考訳): YOLO学習を用いた農業用リアルタイム物体検出とロボット操作
- Authors: Hongyu Zhao, Zezhi Tang, Zhenhong Li, Yi Dong, Yuancheng Si, Mingyang
Lu, George Panoutsos
- Abstract要約: 本研究では、畳み込みニューラルネットワーク(CNN)の2つの異なるアーキテクチャを組み合わせた新しいフレームワークを提案する。
シミュレーション環境でのクロップ画像は、ランダムな回転、収穫、明るさ、コントラスト調整を受け、データセット生成のための拡張画像を生成する。
提案手法は,ロボット操作の把握位置を明らかにするために,視覚幾何学グループモデルを用いて取得した画像データを利用する。
- 参考スコア(独自算出の注目度): 8.482182765640022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The optimisation of crop harvesting processes for commonly cultivated crops
is of great importance in the aim of agricultural industrialisation. Nowadays,
the utilisation of machine vision has enabled the automated identification of
crops, leading to the enhancement of harvesting efficiency, but challenges
still exist. This study presents a new framework that combines two separate
architectures of convolutional neural networks (CNNs) in order to
simultaneously accomplish the tasks of crop detection and harvesting (robotic
manipulation) inside a simulated environment. Crop images in the simulated
environment are subjected to random rotations, cropping, brightness, and
contrast adjustments to create augmented images for dataset generation. The you
only look once algorithmic framework is employed with traditional rectangular
bounding boxes for crop localization. The proposed method subsequently utilises
the acquired image data via a visual geometry group model in order to reveal
the grasping positions for the robotic manipulation.
- Abstract(参考訳): 一般的な栽培作物の収穫プロセスの最適化は、農業工業化の目的において非常に重要である。
今日では、機械ビジョンの活用によって作物の自動識別が可能となり、収穫効率の向上に繋がるが、依然として課題が残っている。
本研究では,共生環境下での作物の検出と収穫(ロボット操作)を同時に行うために,畳み込みニューラルネットワーク(CNN)の2つの異なるアーキテクチャを組み合わせた新しい枠組みを提案する。
シミュレーション環境における作物画像はランダムな回転、切り欠き、明るさ、コントラスト調整により、データセット生成のための拡張画像を生成する。
アルゴリズムフレームワークは、クロップローカライゼーションのための従来の長方形のバウンディングボックスにのみ使用される。
提案手法は,ロボット操作の把握位置を明らかにするために,視覚幾何学グループモデルを用いて取得した画像データを利用する。
関連論文リスト
- Cropper: Vision-Language Model for Image Cropping through In-Context Learning [57.694845787252916]
画像トリミングの目標は、画像内の視覚的に魅力的な作物を特定することである。
近年の大規模視覚言語モデル(VLM)のブレークスルーにより、明示的なトレーニングを伴わずに、コンテキスト内学習が可能になった。
本稿では,VLMを画像トリミングに有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-08-14T20:03:03Z) - Semi-Self-Supervised Domain Adaptation: Developing Deep Learning Models with Limited Annotated Data for Wheat Head Segmentation [0.10923877073891444]
本稿では,確率的拡散過程を持つ深層畳み込みニューラルネットワークに基づく半自己制御型ドメイン適応手法を提案する。
合成画像-マスク対と無注釈画像の両方を利用する2分岐畳み込みエンコーダ・デコーダモデルアーキテクチャを開発した。
提案されたモデルは、内部テストデータセットで80.7%のDiceスコア、外部テストセットで64.8%のDiceスコアを達成した。
論文 参考訳(メタデータ) (2024-05-12T04:35:49Z) - Generating Diverse Agricultural Data for Vision-Based Farming Applications [74.79409721178489]
このモデルは, 植物の成長段階, 土壌条件の多様性, 照明条件の異なるランダム化フィールド配置をシミュレートすることができる。
我々のデータセットにはセマンティックラベル付き12,000の画像が含まれており、精密農業におけるコンピュータビジョンタスクの包括的なリソースを提供する。
論文 参考訳(メタデータ) (2024-03-27T08:42:47Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Neuromorphic Synergy for Video Binarization [54.195375576583864]
バイモーダルオブジェクトは視覚システムによって容易に認識できる情報を埋め込む視覚形式として機能する。
ニューロモルフィックカメラは、動きのぼかしを緩和する新しい機能を提供するが、最初にブルーを脱色し、画像をリアルタイムでバイナライズするのは簡単ではない。
本稿では,イベント空間と画像空間の両方で独立に推論を行うために,バイモーダル目標特性の事前知識を活用するイベントベースバイナリ再構築手法を提案する。
また、このバイナリ画像を高フレームレートバイナリビデオに伝搬する効率的な統合手法も開発している。
論文 参考訳(メタデータ) (2024-02-20T01:43:51Z) - DT/MARS-CycleGAN: Improved Object Detection for MARS Phenotyping Robot [11.869108981066429]
本研究は、画像拡張のための新しいデジタルツイン(DT)MARS-CycleGANモデルを提案する。
我々は,CycleGANモデルにおけるサイクル整合性損失に加えて,深層学習モデルにおける新たなDT-MARS損失を設計,実施し,MARSが取得した実作物画像とDT MARSが検出した合成画像との矛盾を解消した。
論文 参考訳(メタデータ) (2023-10-19T14:39:34Z) - Inside Out: Transforming Images of Lab-Grown Plants for Machine Learning
Applications in Agriculture [0.0]
我々は,室内の植物像をフィールド画像として解釈するために,コントラッシブ・アンペア変換 (CUT) 生成敵ネットワーク (GAN) を用いる。
我々は,1つの植物のみを含むイメージを翻訳するようにネットワークを訓練する一方で,複数の植物野画像を生成するために容易に拡張可能であることを示す。
また, 人工マルチプラント画像を用いて, いくつかのYoloV5ナノオブジェクト検出モデルを訓練し, 植物検出を行う。
論文 参考訳(メタデータ) (2022-11-05T20:51:45Z) - Enlisting 3D Crop Models and GANs for More Data Efficient and
Generalizable Fruit Detection [0.0]
本稿では,合成3次元作物モデルドメインから実世界の作物ドメインへの農業画像生成手法を提案する。
本手法は, 果実の位置と形状を保存するために, 意味的に制約されたGAN (generative adversarial network) を用いる。
ブドウ品種検出タスクにおける増分訓練実験により,本手法から生成した画像がドメインプロセスを大幅に高速化できることが判明した。
論文 参考訳(メタデータ) (2021-08-30T16:11:59Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - MOGAN: Morphologic-structure-aware Generative Learning from a Single
Image [59.59698650663925]
近年,1つの画像のみに基づく生成モデルによる完全学習が提案されている。
多様な外観のランダムなサンプルを生成するMOGANというMOrphologic-structure-aware Generative Adversarial Networkを紹介します。
合理的な構造の維持や外観の変化など、内部機能に重点を置いています。
論文 参考訳(メタデータ) (2021-03-04T12:45:23Z) - Multi-Spectral Image Synthesis for Crop/Weed Segmentation in Precision
Farming [3.4788711710826083]
本稿では, 精密農業における作物・雑草の分枝化問題に適用し, 共通データ増分法に関する代替手法を提案する。
我々は、最も関連性の高いオブジェクトクラス(作物や雑草)を合成されたクラスに置き換えることで、半人工的なサンプルを作成する。
RGBデータに加えて、近赤外(NIR)情報も考慮し、4つのチャネルマルチスペクトル合成画像を生成する。
論文 参考訳(メタデータ) (2020-09-12T08:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。