論文の概要: Tomato Multi-Angle Multi-Pose Dataset for Fine-Grained Phenotyping
- arxiv url: http://arxiv.org/abs/2507.11279v1
- Date: Tue, 15 Jul 2025 12:56:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.118332
- Title: Tomato Multi-Angle Multi-Pose Dataset for Fine-Grained Phenotyping
- Title(参考訳): 微粒化フェノタイピングのためのトマト多角マルチパスデータセット
- Authors: Yujie Zhang, Sabine Struckmeyer, Andreas Kolb, Sven Reichardt,
- Abstract要約: TomatoMAPはSolanum lycopersicumの包括的なデータセットである。
我々のデータセットには64,464枚のRGB画像が含まれており、4つのカメラ高度角から12の異なる植物ポーズを捉えています。
我々は,3,616個の高解像度画像サブセットをピクセル単位で意味づけし,細粒度表現のためのインスタンスセグメンテーションアノテーションを提供する。
- 参考スコア(独自算出の注目度): 10.807010511060042
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Observer bias and inconsistencies in traditional plant phenotyping methods limit the accuracy and reproducibility of fine-grained plant analysis. To overcome these challenges, we developed TomatoMAP, a comprehensive dataset for Solanum lycopersicum using an Internet of Things (IoT) based imaging system with standardized data acquisition protocols. Our dataset contains 64,464 RGB images that capture 12 different plant poses from four camera elevation angles. Each image includes manually annotated bounding boxes for seven regions of interest (ROIs), including leaves, panicle, batch of flowers, batch of fruits, axillary shoot, shoot and whole plant area, along with 50 fine-grained growth stage classifications based on the BBCH scale. Additionally, we provide 3,616 high-resolution image subset with pixel-wise semantic and instance segmentation annotations for fine-grained phenotyping. We validated our dataset using a cascading model deep learning framework combining MobileNetv3 for classification, YOLOv11 for object detection, and MaskRCNN for segmentation. Through AI vs. Human analysis involving five domain experts, we demonstrate that the models trained on our dataset achieve accuracy and speed comparable to the experts. Cohen's Kappa and inter-rater agreement heatmap confirm the reliability of automated fine-grained phenotyping using our approach.
- Abstract(参考訳): 従来の植物表現型法におけるオブザーババイアスと不整合は、きめ細かい植物分析の精度と再現性を制限している。
これらの課題を克服するために、標準化されたデータ取得プロトコルを備えたIoT(Internet of Things)ベースのイメージングシステムを用いて、Solanum lycopersicumの包括的なデータセットであるTomatoMAPを開発した。
我々のデータセットには64,464枚のRGB画像が含まれており、4つのカメラ高度角から12の異なる植物ポーズを捉えています。
それぞれの画像には、葉、パニック、花のバッチ、果実のバッチ、キサリーシュート、シュート、植物全体を含む7つの領域(ROI)の注釈付きバウンディングボックスと、BBCHスケールに基づいた50のきめ細かい成長段階の分類が含まれている。
さらに,3,616個の高解像度画像サブセットに,ピクセルのセマンティクスとインスタンスのセグメンテーションアノテーションを付加し,微細な表現表現を行う。
我々は,MobileNetv3を分類用として,YOLOv11をオブジェクト検出用として,MaskRCNNをセグメンテーション用として組み合わせたカスケードモデル深層学習フレームワークを用いて,データセットを検証した。
5つのドメインエキスパートを含むAI vs. ヒューマン分析を通じて、データセットでトレーニングされたモデルが、専門家に匹敵する正確さとスピードを達成することを実証する。
CohenのKappaとInter-rater agreementのヒートマップは、我々のアプローチを用いて、自動化されたきめ細かな表現の信頼性を確認した。
関連論文リスト
- MT-CYP-Net: Multi-Task Network for Pixel-Level Crop Yield Prediction Under Very Few Samples [5.547023223870711]
我々はMulti-Task Crop Yield Prediction Network (MT-CYP-Net)と呼ばれる新しい手法を提案する。
このフレームワークは、共有バックボーンネットワークから抽出された特徴を、収穫予測デコーダと作物分類デコーダの両方で同時に活用する、効果的なマルチタスク機能共有戦略を導入する。
この設計により、MT-CYP-Netは、細かな収量点ラベルと収量型ラベルで訓練できると同時に、詳細なピクセルレベルの収量マップを生成することができる。
論文 参考訳(メタデータ) (2025-05-17T16:20:44Z) - EarthView: A Large Scale Remote Sensing Dataset for Self-Supervision [72.84868704100595]
本稿では,地球モニタリングタスクにおける深層学習アプリケーションを強化することを目的とした,リモートセンシングデータの自己監督を目的としたデータセットを提案する。
このデータセットは15テラピクセルのグローバルリモートセンシングデータにまたがっており、NEON、Sentinel、Satellogicによる1mの空間解像度データの新たなリリースなど、さまざまなソースの画像を組み合わせている。
このデータセットは、リモートセンシングデータの異なる課題に取り組むために開発されたMasked Autoencoderである。
論文 参考訳(メタデータ) (2025-01-14T13:42:22Z) - Tree Species Classification using Machine Learning and 3D Tomographic SAR -- a case study in Northern Europe [0.0]
樹木種の分類は、自然保護、森林在庫、森林管理、絶滅危惧種の保護において重要な役割を担っている。
本研究では,SLC(Single-look Complex)画像のスタックを利用した3次元トモグラフィーデータセットであるTtomoSenseを用いた。
論文 参考訳(メタデータ) (2024-11-19T22:25:26Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - Classifying geospatial objects from multiview aerial imagery using semantic meshes [2.116528763953217]
米国における森林の航空画像に基づく樹木種予測手法を提案する。
提案手法は, 木分類に難渋する課題に対して, 53%から75%に分類精度を向上することを示す。
論文 参考訳(メタデータ) (2024-05-15T17:56:49Z) - The Canadian Cropland Dataset: A New Land Cover Dataset for
Multitemporal Deep Learning Classification in Agriculture [0.8602553195689513]
カナディアン・クロップ・インベントリー (Canadian Annual Crop Inventory) から回収されたラベルで濃縮されたカナダの作物の時間的パッチベースのデータセット。
このデータセットは、4年間にわたって収集された10種類の作物から,78,536個の高解像度空間像を手作業で検証した。
ベンチマークとして,単一画像(ResNet,DenseNet,EfficientNet)や画像列(LRCN,3D-CNN)を同一位置から予測可能なモデルとソースコードを提供する。
論文 参考訳(メタデータ) (2023-05-31T18:40:15Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Unsupervised Domain Adaptation with Contrastive Learning for OCT
Segmentation [49.59567529191423]
本稿では,新しい未ラベル領域からのボリューム画像のセグメンテーションのための,新しい半教師付き学習フレームワークを提案する。
教師付き学習とコントラスト学習を併用し、3次元の近傍スライス間の類似性を利用したコントラストペア方式を導入する。
論文 参考訳(メタデータ) (2022-03-07T19:02:26Z) - Classification of Seeds using Domain Randomization on Self-Supervised
Learning Frameworks [0.0]
鍵となるボトルネックは、畳み込みニューラルネットワーク(CNN)をトレーニングする大量のラベル付きデータの必要性である。
この研究は、これを達成するために、コントラスト学習とドメインランダム化の概念を活用している。
実世界の画像の表象的サンプル作物から生成された合成画像の使用は、大量のテスト対象の必要性を軽減する。
論文 参考訳(メタデータ) (2021-03-29T12:50:06Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。