論文の概要: Segment Anything for comprehensive analysis of grapevine cluster architecture and berry properties
- arxiv url: http://arxiv.org/abs/2403.12935v1
- Date: Tue, 19 Mar 2024 17:37:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 13:14:11.361704
- Title: Segment Anything for comprehensive analysis of grapevine cluster architecture and berry properties
- Title(参考訳): ブドウのクラスター構造とベリー特性の包括的解析のためのセグメンション
- Authors: Efrain Torres-Lomas, Jimena Lado-Jimena, Guillermo Garcia-Zamora, Luis Diaz-Garcia,
- Abstract要約: 本研究では,2次元クラスタ画像における個々のベリーの同定において,SAMの精度が高いことを示す。
ヒトの識別したベリーとSAMの予測の相関は非常に強い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Grape cluster architecture and compactness are complex traits influencing disease susceptibility, fruit quality, and yield. Evaluation methods for these traits include visual scoring, manual methodologies, and computer vision, with the latter being the most scalable approach. Most of the existing computer vision approaches for processing cluster images often rely on conventional segmentation or machine learning with extensive training and limited generalization. The Segment Anything Model (SAM), a novel foundation model trained on a massive image dataset, enables automated object segmentation without additional training. This study demonstrates out-of-the-box SAM's high accuracy in identifying individual berries in 2D cluster images. Using this model, we managed to segment approximately 3,500 cluster images, generating over 150,000 berry masks, each linked with spatial coordinates within their clusters. The correlation between human-identified berries and SAM predictions was very strong (Pearson r2=0.96). Although the visible berry count in images typically underestimates the actual cluster berry count due to visibility issues, we demonstrated that this discrepancy could be adjusted using a linear regression model (adjusted R2=0.87). We emphasized the critical importance of the angle at which the cluster is imaged, noting its substantial effect on berry counts and architecture. We proposed different approaches in which berry location information facilitated the calculation of complex features related to cluster architecture and compactness. Finally, we discussed SAM's potential integration into currently available pipelines for image generation and processing in vineyard conditions.
- Abstract(参考訳): グレープクラスタアーキテクチャとコンパクト性は、病気の感受性、果実の品質、収量に影響を与える複雑な特性である。
これらの特性の評価手法には、視覚的スコアリング、手動の方法論、コンピュータビジョンがあり、後者が最もスケーラブルなアプローチである。
クラスタイメージを処理する既存のコンピュータビジョンアプローチの多くは、広範囲のトレーニングと限定的な一般化を伴う従来のセグメンテーションや機械学習に依存していることが多い。
Segment Anything Model(SAM)は、大規模なイメージデータセットに基づいてトレーニングされた、新たな基盤モデルである。
本研究では,2次元クラスタ画像における個々のベリーの同定において,SAMの精度が高いことを示す。
このモデルを用いて,約3500個のクラスタイメージを分割し,それぞれにクラスタ内の空間座標をリンクした15万個のベリーマスクを生成した。
ヒトの識別されたベリーとSAMの予測の相関は非常に強い(Pearson r2=0.96)。
画像中の可視的ベリー数は通常、可視性の問題により実際のクラスタベリー数を過小評価するが、線形回帰モデル(R2=0.87)を用いてこの差を調整できることを実証した。
我々は、クラスタが像化される角度の重要さを強調し、ベリー数とアーキテクチャに大きな影響を与えることを指摘した。
そこで我々は,ベリーの位置情報をクラスタアーキテクチャやコンパクト性に関連する複雑な特徴の計算に役立てるアプローチを提案した。
最後に、私たちはSAMの現在利用可能なパイプラインへの潜在的な統合について、ブドウ畑の条件下での画像生成と処理について論じました。
関連論文リスト
- Rethinking cluster-conditioned diffusion models for label-free image synthesis [1.4624458429745086]
拡散に基づく画像生成モデルは、地上の真理ラベルに条件付けされた場合の画質を向上させることができる。
クラスタ数やクラスタリング手法など,個々のクラスタリング決定要因が画像合成に与える影響について検討する。
論文 参考訳(メタデータ) (2024-03-01T14:47:46Z) - A Lightweight Clustering Framework for Unsupervised Semantic
Segmentation [28.907274978550493]
教師なしセマンティックセグメンテーションは、注釈付きデータを用いることなく、画像の各ピクセルを対応するクラスに分類することを目的としている。
教師なしセマンティックセグメンテーションのための軽量クラスタリングフレームワークを提案する。
本フレームワークは,PASCAL VOCおよびMS COCOデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2023-11-30T15:33:42Z) - ClusterFormer: Clustering As A Universal Visual Learner [80.79669078819562]
CLUSTERFORMERは、トランスフォーマーを用いたCLUSTERingパラダイムに基づくユニバーサルビジョンモデルである。
不均一な視覚タスクに様々なレベルのクラスタリングの粒度で対処することができる。
その有効性のために、コンピュータビジョンにおける普遍モデルにおけるパラダイムシフトを触媒できることを期待します。
論文 参考訳(メタデータ) (2023-09-22T22:12:30Z) - DealMVC: Dual Contrastive Calibration for Multi-view Clustering [78.54355167448614]
マルチビュークラスタリングのための新しいデュアルコントラストキャリブレーションネットワーク(DealMVC)を提案する。
まず、グローバルなクロスビュー特徴を得るための融合機構を設計し、その上で、ビュー特徴類似性グラフと高信頼な擬ラベルグラフを整列させることにより、グローバルなコントラストキャリブレーション損失を提案する。
トレーニング手順の間、対話型クロスビュー機能は、ローカルレベルとグローバルレベルの両方で共同最適化される。
論文 参考訳(メタデータ) (2023-08-17T14:14:28Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Anomaly Clustering: Grouping Images into Coherent Clusters of Anomaly
Types [60.45942774425782]
我々は異常クラスタリングを導入し、その目標はデータを異常型の一貫性のあるクラスタにまとめることである。
これは異常検出とは違い、その目標は異常を通常のデータから分割することである。
パッチベースの事前訓練されたディープ埋め込みとオフザシェルフクラスタリング手法を用いた,単純で効果的なクラスタリングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-21T23:11:33Z) - CLAWS: Contrastive Learning with hard Attention and Weak Supervision [1.1619569706231647]
本稿では,大規模農業データセットを手動でラベル付けする問題に対処する,アノテーション効率のよい学習フレームワークであるCLAWSを提案する。
CLAWSは、SimCLRにインスパイアされたネットワークバックボーンを使用して、クラスクラスタ内のコントラスト学習の影響を調べる。
本研究は,11種類の作物群からなる227,060検体を用いて,教師付きSimCLRとCLAWSの比較を行った。
論文 参考訳(メタデータ) (2021-12-01T21:45:58Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - Classification of Seeds using Domain Randomization on Self-Supervised
Learning Frameworks [0.0]
鍵となるボトルネックは、畳み込みニューラルネットワーク(CNN)をトレーニングする大量のラベル付きデータの必要性である。
この研究は、これを達成するために、コントラスト学習とドメインランダム化の概念を活用している。
実世界の画像の表象的サンプル作物から生成された合成画像の使用は、大量のテスト対象の必要性を軽減する。
論文 参考訳(メタデータ) (2021-03-29T12:50:06Z) - Y-net: Biomedical Image Segmentation and Clustering [0.0]
医用画像解析のための画像分割を伴う深層クラスタリングアーキテクチャを提案する。
Kmeansクラスタリングを用いたディープクラスタリングはクラスタリングブランチで行われ、セグメンテーションには軽量モデルが使用される。
提案したアーキテクチャは、データセットが大きくなるにつれて非常にコストがかかるため、早期診断を提供し、ラベル付けに対する人間の介入を減らすことができる。
論文 参考訳(メタデータ) (2020-04-12T21:08:31Z) - ClusterVO: Clustering Moving Instances and Estimating Visual Odometry
for Self and Surroundings [54.33327082243022]
ClusterVOはステレオビジュアルオドメトリーで、エゴと周囲の固いクラスタ/オブジェクトの両方の動きを同時にクラスタし、推定する。
以前のソリューションでは、バッチ入力やシーン構造や動的オブジェクトモデルへの事前の指示に頼っていたが、ClusterVOは一般的にオンラインであり、屋内のシーン理解や自律運転など、さまざまなシナリオで使用することができる。
論文 参考訳(メタデータ) (2020-03-29T09:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。