論文の概要: Sesame Plant Segmentation Dataset: A YOLO Formatted Annotated Dataset
- arxiv url: http://arxiv.org/abs/2601.07970v1
- Date: Mon, 12 Jan 2026 20:04:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:18.929574
- Title: Sesame Plant Segmentation Dataset: A YOLO Formatted Annotated Dataset
- Title(参考訳): Sesame Plant Segmentation Dataset: YOLO Formatted Annotated Dataset
- Authors: Sunusi Ibrahim Muhammad, Ismail Ismail Tijjani, Saadatu Yusuf Jumare, Fatima Isah Jibrin,
- Abstract要約: データセットは、YOLO互換セグメンテーションフォーマットで206のトレーニングイメージ、43のバリデーションイメージ、43のテストイメージからなる。
データはナイジェリアのカツィーナ州大浦地方行政区のJirndedeの農場から高解像度のモバイルカメラを用いて収集された。
このデータセットは、ナイジェリアのセサミに焦点を当てた農業ビジョンデータセットへの新しい貢献を表している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents the Sesame Plant Segmentation Dataset, an open source annotated image dataset designed to support the development of artificial intelligence models for agricultural applications, with a specific focus on sesame plants. The dataset comprises 206 training images, 43 validation images, and 43 test images in YOLO compatible segmentation format, capturing sesame plants at early growth stages under varying environmental conditions. Data were collected using a high resolution mobile camera from farms in Jirdede, Daura Local Government Area, Katsina State, Nigeria, and annotated using the Segment Anything Model version 2 with farmer supervision. Unlike conventional bounding box datasets, this dataset employs pixel level segmentation to enable more precise detection and analysis of sesame plants in real world farm settings. Model evaluation using the Ultralytics YOLOv8 framework demonstrated strong performance for both detection and segmentation tasks. For bounding box detection, the model achieved a recall of 79 percent, precision of 79 percent, mean average precision at IoU 0.50 of 84 percent, and mean average precision from 0.50 to 0.95 of 58 percent. For segmentation, it achieved a recall of 82 percent, precision of 77 percent, mean average precision at IoU 0.50 of 84 percent, and mean average precision from 0.50 to 0.95 of 52 percent. The dataset represents a novel contribution to sesame focused agricultural vision datasets in Nigeria and supports applications such as plant monitoring, yield estimation, and agricultural research.
- Abstract(参考訳): 本稿では,農業用人工知能モデルの開発を支援するために設計された,オープンソースのアノテート画像データセットであるセサミプラントセグメンテーションデータセットについて述べる。
本データセットは、YOLO互換セグメンテーションフォーマットの訓練画像206枚、検証画像43枚、テスト画像43枚から構成され、環境条件の異なる早期成長段階でゴマ植物を捕獲する。
データはナイジェリアのカツィーナ州、大浦地方行政区の農場から高解像度のモバイルカメラを用いて収集され、農夫の監督を伴うセグメント・アサンシング・モデル2を用いて注釈付けされた。
従来のバウンディングボックスデータセットとは異なり、このデータセットはピクセルレベルのセグメンテーションを使用して、現実世界の農場環境におけるゴマ植物のより正確な検出と分析を可能にしている。
Ultralytics YOLOv8 フレームワークを用いたモデル評価は,検出タスクとセグメンテーションタスクの両方において高い性能を示した。
境界ボックス検出では、このモデルは79%のリコール、99%の精度、平均精度は84%のIoU 0.50%、平均精度は0.50から0.95の58%であった。
セグメンテーションでは82%、精度は77%、平均精度は84%、平均精度は0.50から0.95から52%だった。
このデータセットはナイジェリアにおけるセサミに焦点を当てた農業ビジョンデータセットへの新たな貢献であり、植物モニタリング、収量推定、農業研究などの応用をサポートする。
関連論文リスト
- A Domain-Adapted Lightweight Ensemble for Resource-Efficient Few-Shot Plant Disease Classification [0.0]
ドメイン適応型MobileNetV2モデルとMobileNetV3モデルを組み合わせた数ショットの学習手法を提案する。
分類タスクには、注意機構を付加したBi-LSTM分類器を通す。
1発から15発のパフォーマンスを継続的に改善し、15発で98.23+-0.33%に達した。
また、以前のSOTAの精度も96.4%向上し、15ショットの学習で99.72%を記録した。
論文 参考訳(メタデータ) (2025-12-15T15:17:29Z) - Assessing the Capability of YOLO- and Transformer-based Object Detectors for Real-time Weed Detection [0.0]
YOLOv8, YOLOv9, YOLOv10, RT-DETRのすべての利用可能なモデルは、実地状況の画像を用いて訓練され、評価される。
その結果、評価された指標では、全てのモデルが等しくよく機能するのに対し、YOLOv9モデルは強いリコールスコアの点で際立っていることがわかった。
RT-DETRモデル、特にRT-DETR-lは、データセット1では82.44 %、データセット2では81.46 %の精度で優れている。
論文 参考訳(メタデータ) (2025-01-29T02:39:57Z) - From Seedling to Harvest: The GrowingSoy Dataset for Weed Detection in Soy Crops via Instance Segmentation [0.2605569739850177]
我々は、ニューラルネットワークを訓練し、インスタンスセグメンテーションを通して雑草や大豆を検知する包括的データセットを導入する。
我々のデータセットは、大豆の生育の様々な段階をカバーし、雑草の侵入の影響に関する時系列的な視点を提供する。
また、このデータセットでトレーニングされたアートモデルの6つの状態を提供し、プランテーションプロセスのすべての段階で大豆や雑草を理解し、検出することができます。
論文 参考訳(メタデータ) (2024-06-01T06:12:48Z) - Evaluating the Role of Training Data Origin for Country-Scale Cropland Mapping in Data-Scarce Regions: A Case Study of Nigeria [0.6249768559720122]
重要な課題は、トレーニングデータの量、品質、およびターゲット領域への近接がモデルの性能にどのように影響するかを理解することである。
ナイジェリアでは、全国をカバーする1,827のラベル付きサンプルとGeowikiデータセットのサブセットを用いて、これを評価した。
その結果,局所データにより精度が0.246 (RF) と0.178 (LSTM) に向上した。
論文 参考訳(メタデータ) (2023-12-18T01:23:22Z) - HarvestNet: A Dataset for Detecting Smallholder Farming Activity Using
Harvest Piles and Remote Sensing [50.4506590177605]
HarvestNetは、2020-2023年のエチオピアのティグレイとアムハラの農場の存在をマッピングするためのデータセットである。
本研究は,多くの小作システムの特徴ある収穫杭の検出に基づく新しい手法を提案する。
本研究は, 農作物のリモートセンシングが, 食品の安全地帯において, よりタイムリーかつ正確な農地評価に寄与することが示唆された。
論文 参考訳(メタデータ) (2023-08-23T11:03:28Z) - Agave crop segmentation and maturity classification with deep learning
data-centric strategies using very high-resolution satellite imagery [101.18253437732933]
超高解像度衛星画像を用いたAgave tequilana Weber azul crop segmentation and mature classificationを提案する。
実世界の深層学習問題を,作物の選別という非常に具体的な文脈で解決する。
結果として得られた正確なモデルにより、大規模地域で生産予測を行うことができる。
論文 参考訳(メタデータ) (2023-03-21T03:15:29Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - A CNN Approach to Simultaneously Count Plants and Detect Plantation-Rows
from UAV Imagery [56.10033255997329]
畳み込みニューラルネットワーク(CNN)を用いた新しい深層学習手法を提案する。
高度に乾燥したプランテーション構成を考慮した植物を数えながら、同時にプランテーション・ロウを検出し、配置する。
提案手法は、異なる種類の作物のUAV画像において、植物と植物をカウントおよびジオロケートするための最先端の性能を達成した。
論文 参考訳(メタデータ) (2020-12-31T18:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。