論文の概要: Convolutional Transformer for Autonomous Recognition and Grading of
Tomatoes Under Various Lighting, Occlusion, and Ripeness Conditions
- arxiv url: http://arxiv.org/abs/2307.01530v1
- Date: Tue, 4 Jul 2023 07:33:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 17:58:24.858428
- Title: Convolutional Transformer for Autonomous Recognition and Grading of
Tomatoes Under Various Lighting, Occlusion, and Ripeness Conditions
- Title(参考訳): コンボリューショントランスフォーマによるトマトの照明・咬合・熟成条件の自律的認識と階調評価
- Authors: Asim Khan, Taimur Hassan, Muhammad Shafay, Israa Fahmy, Naoufel
Werghi, Lakmal Seneviratne and Irfan Hussain
- Abstract要約: 本研究は, トマトを自律的に認識し, 格付けするために, 畳み込みトランスフォーマーアーキテクチャを利用する新しい枠組みを導入する。
提案したモデルは、この目的のためにキュレートされた注意深い注釈付き画像を用いて訓練され、テストされる。
乱雑なトマトのインスタンスを処理するためのフレームワークの有効性を,2つの追加の公開データセットを用いて評価した。
- 参考スコア(独自算出の注目度): 8.1908584970203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Harvesting fully ripe tomatoes with mobile robots presents significant
challenges in real-world scenarios. These challenges arise from factors such as
occlusion caused by leaves and branches, as well as the color similarity
between tomatoes and the surrounding foliage during the fruit development
stage. The natural environment further compounds these issues with varying
light conditions, viewing angles, occlusion factors, and different maturity
levels. To overcome these obstacles, this research introduces a novel framework
that leverages a convolutional transformer architecture to autonomously
recognize and grade tomatoes, irrespective of their occlusion level, lighting
conditions, and ripeness. The proposed model is trained and tested using
carefully annotated images curated specifically for this purpose. The dataset
is prepared under various lighting conditions, viewing perspectives, and
employs different mobile camera sensors, distinguishing it from existing
datasets such as Laboro Tomato and Rob2Pheno Annotated Tomato. The
effectiveness of the proposed framework in handling cluttered and occluded
tomato instances was evaluated using two additional public datasets, Laboro
Tomato and Rob2Pheno Annotated Tomato, as benchmarks. The evaluation results
across these three datasets demonstrate the exceptional performance of our
proposed framework, surpassing the state-of-the-art by 58.14%, 65.42%, and
66.39% in terms of mean average precision scores for KUTomaData, Laboro Tomato,
and Rob2Pheno Annotated Tomato, respectively. The results underscore the
superiority of the proposed model in accurately detecting and delineating
tomatoes compared to baseline methods and previous approaches. Specifically,
the model achieves an F1-score of 80.14%, a Dice coefficient of 73.26%, and a
mean IoU of 66.41% on the KUTomaData image dataset.
- Abstract(参考訳): 完全に熟したトマトをモバイルロボットで収穫することは、現実世界のシナリオにおいて重大な課題をもたらす。
これらの課題は、葉や枝によって引き起こされる閉塞や、果実の発達段階におけるトマトと周辺の葉の色類似性などの要因から生じる。
自然環境はさらにこれらの問題を、様々な光条件、視角、閉塞要因、および異なる成熟度レベルと組み合わせている。
これらの障害を克服するために, コンボリューショントランスフォーマーアーキテクチャを利用して, 閉塞レベル, 照明条件, 熟度に関わらず, トマトを自律的に認識し, 格付けする新しい枠組みを導入する。
提案モデルは、この目的のために特別にキュレートされた注意深い注釈付き画像を用いて訓練され、テストされる。
データセットは、さまざまな照明条件下で準備され、視点を視認し、さまざまなモバイルカメラセンサーを使用し、Laboro TomatoやRob2Pheno Annotated Tomatoといった既存のデータセットと区別する。
乱雑なトマトインスタンスと隠蔽トマトインスタンスの処理におけるフレームワークの有効性を,2つの公開データセットである Laboro Tomato と Rob2Pheno Annotated Tomato をベンチマークとして評価した。
これら3つのデータセットにおける評価結果から, トマトをアノテートしたkutomadata, laboro tomato, rob2phenoの平均精度スコアにおいて, 最先端の58.14%, 65.42%, 66.39%を上回った。
その結果,トマトをベースライン法や従来の手法と比較して精度良く検出・区分けできることで,提案モデルの優越性が向上した。
具体的には、f1-scoreが80.14%、dice係数が73.26%、平均iouが66.41%である。
関連論文リスト
- Deep learning-based approach for tomato classification in complex scenes [0.8287206589886881]
複雑な場面における深層学習に基づくトマト熟成モニタリング手法を提案する。
目的は、成熟したトマトを検出し、タイムリーに収穫することである。
実験は、さまざまな言語にまたがるトマトの状態を用いて、インターネットから収集された画像に基づいて行われる。
論文 参考訳(メタデータ) (2024-01-26T18:33:57Z) - Early and Accurate Detection of Tomato Leaf Diseases Using TomFormer [0.3169023552218211]
本稿ではトマト葉病検出のためのトランスフォーマーモデルTomFormerを紹介する。
本稿では,視覚変換器と畳み込みニューラルネットワークを組み合わせた融合モデルを用いて,トマト葉病の検出手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T20:47:23Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - TomatoDIFF: On-plant Tomato Segmentation with Denoising Diffusion Models [3.597418929000278]
TomatoDIFFは植物のトマトのセマンティックセグメンテーションのための新しい拡散モデルである。
トマトピアは温室トマトの新しい、大きくて挑戦的なデータセットである。
論文 参考訳(メタデータ) (2023-07-03T14:43:40Z) - Detection of Tomato Ripening Stages using Yolov3-tiny [0.0]
トマトの分類と検出にはニューラルネットワークを用いたモデルを用いる。
実験の結果, カスタムデータセットにおける熟成段階の局在と分類において, f1スコアは90.0%であった。
論文 参考訳(メタデータ) (2023-02-01T00:57:58Z) - Fusion of Satellite Images and Weather Data with Transformer Networks
for Downy Mildew Disease Detection [3.6868861317674524]
作物病は農業生産量と品質に大きな影響を及ぼす。
本稿では,3つのトランスを用いたデータ融合を実現するための新しい手法を提案する。
このアーキテクチャは、視覚変換器と2つの変換器エンコーダという3つの主要コンポーネントで構築されており、画像と気象の両方を融合させることができる。
論文 参考訳(メタデータ) (2022-09-06T19:55:16Z) - 3D Vision with Transformers: A Survey [114.86385193388439]
自然言語処理におけるトランスフォーマーアーキテクチャの成功は、コンピュータビジョン分野の注目を集めている。
本稿では,異なる3次元視覚タスクのための100以上のトランスフォーマー手法の体系的,徹底的なレビューを行う。
我々は3次元視覚におけるトランスフォーマー設計について議論し、様々な3次元表現でデータを処理できるようにする。
論文 参考訳(メタデータ) (2022-08-08T17:59:11Z) - Visual Saliency Transformer [127.33678448761599]
RGBとRGB-Dの液状物体検出(SOD)のための、純粋な変圧器であるVST(Visual Saliency Transformer)に基づく新しい統一モデルを開発しました。
イメージパッチを入力として取り、トランスフォーマーを利用してイメージパッチ間のグローバルコンテキストを伝搬する。
実験結果から,RGBとRGB-D SODのベンチマークデータセットにおいて,本モデルが既存の最新結果を上回っていることが示された。
論文 参考訳(メタデータ) (2021-04-25T08:24:06Z) - 3D Human Pose Estimation with Spatial and Temporal Transformers [59.433208652418976]
PoseFormerは、3D人間のポーズ推定のための純粋にトランスフォーマーベースのアプローチです。
近年の視覚変換器の発展に触発されて,空間時間変換器構造を設計する。
提案手法を2つの人気ベンチマークと標準ベンチマークで定量的に定性的に評価する。
論文 参考訳(メタデータ) (2021-03-18T18:14:37Z) - Two-View Fine-grained Classification of Plant Species [66.75915278733197]
本研究では,2視点の葉のイメージ表現に基づく新しい手法と,植物種の粒度認識のための階層的分類戦略を提案する。
シームズ畳み込みニューラルネットワークに基づく深度測定は、多数のトレーニングサンプルへの依存を減らし、新しい植物種に拡張性を持たせるために用いられる。
論文 参考訳(メタデータ) (2020-05-18T21:57:47Z) - Automatic image-based identification and biomass estimation of
invertebrates [70.08255822611812]
時間を要する分類と分類は、どれだけの昆虫を処理できるかに強い制限を課す。
我々は、人間の専門家による分類と識別の標準的な手動アプローチを、自動画像ベース技術に置き換えることを提案する。
分類タスクには最先端のResnet-50とInceptionV3 CNNを使用する。
論文 参考訳(メタデータ) (2020-02-05T21:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。