論文の概要: Facilitated machine learning for image-based fruit quality assessment in
developing countries
- arxiv url: http://arxiv.org/abs/2207.04523v1
- Date: Sun, 10 Jul 2022 19:52:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 04:49:34.239134
- Title: Facilitated machine learning for image-based fruit quality assessment in
developing countries
- Title(参考訳): 発展途上国におけるイメージベース果実品質評価のためのファシリケート機械学習
- Authors: Manuel Knott, Fernando Perez-Cruz, Thijs Defraeye
- Abstract要約: 自動画像分類は食品科学における教師あり機械学習の一般的な課題である。
事前学習型視覚変換器(ViT)に基づく代替手法を提案する。
標準的なデバイス上で限られたリソースで簡単に実装できる。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated image classification is a common task for supervised machine
learning in food science. An example is the image-based classification of the
fruit's external quality or ripeness. For this purpose, deep convolutional
neural networks (CNNs) are typically used. These models usually require a large
number of labeled training samples and enhanced computational resources. While
commercial fruit sorting lines readily meet these requirements, the use of
machine learning approaches can be hindered by these prerequisites, especially
for smallholder farmers in the developing world. We propose an alternative
method based on pre-trained vision transformers (ViTs) that is particularly
suitable for domains with low availability of data and limited computational
resources. It can be easily implemented with limited resources on a standard
device, which can democratize the use of these models for smartphone-based
image classification in developing countries. We demonstrate the
competitiveness of our method by benchmarking two different classification
tasks on domain data sets of banana and apple fruits with well-established CNN
approaches. Our method achieves a classification accuracy of less than one
percent below the best-performing CNN (0.950 vs. 0.958) on a training data set
of 3745 images. At the same time, our method is superior when only a small
number of labeled training samples is available. It requires three times less
data to achieve a 0.90 accuracy compared to CNNs. In addition, visualizations
of low-dimensional feature embeddings show that the model used in our study
extracts excellent features from unseen data without allocating labels.
- Abstract(参考訳): 自動画像分類は食品科学における教師あり機械学習の一般的な課題である。
例として、果実の外観品質や熟度をイメージベースで分類する例がある。
この目的のために、深層畳み込みニューラルネットワーク(cnns)が一般的に用いられる。
これらのモデルは通常、多数のラベル付きトレーニングサンプルと強化された計算資源を必要とする。
商業的な果物の選別ラインはこれらの要件を容易に満たすが、機械学習アプローチの使用はこれらの前提条件、特に発展途上国の小規模農家によって妨げられる。
本稿では,データ可用性の低い領域や限られた計算資源に特に適する,事前学習型視覚変換器(ViT)に基づく代替手法を提案する。
標準的なデバイス上で限られたリソースで容易に実装でき、発展途上国のスマートフォンベースの画像分類にこれらのモデルを使用することを民主化することができる。
我々はバナナとリンゴの実のドメインデータセットに2つの異なる分類タスクをCNNアプローチでベンチマークすることで,本手法の競争力を実証する。
提案手法は,3745画像のトレーニングデータセット上で最高のCNN(0.950 vs. 0.958)よりも1%未満の精度で分類する。
同時に,少数のラベル付きトレーニングサンプルが利用可能である場合には,本手法が優れている。
CNNと比べて0.90の精度を達成するには3倍のデータを要求される。
さらに,低次元特徴埋め込みの可視化により,本研究で用いたモデルは,ラベルを割り当てることなく,見えないデータから優れた特徴を抽出することを示した。
関連論文リスト
- Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - DINOv2: Learning Robust Visual Features without Supervision [75.42921276202522]
この研究は、既存の事前学習手法、特に自己教師付き手法が、多様なソースから十分なキュレートされたデータで訓練すれば、そのような特徴を生み出すことができることを示している。
技術的な貢献の多くは、大規模なトレーニングを加速し、安定化することを目的としています。
データの観点からは、自己組織化されていないデータではなく、専用で多様でキュレートされた画像データセットを構築するための自動パイプラインを提案する。
論文 参考訳(メタデータ) (2023-04-14T15:12:19Z) - Decoupled Mixup for Generalized Visual Recognition [71.13734761715472]
視覚認識のためのCNNモデルを学習するための新しい「デカップリング・ミクスアップ」手法を提案する。
本手法は,各画像を識別領域と雑音発生領域に分離し,これらの領域を均一に組み合わせてCNNモデルを訓練する。
実験結果から,未知のコンテキストからなるデータに対する本手法の高一般化性能を示す。
論文 参考訳(メタデータ) (2022-10-26T15:21:39Z) - Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - KNN-Diffusion: Image Generation via Large-Scale Retrieval [40.6656651653888]
適応する学習は、いくつかの新しい機能を可能にします。
微調整の訓練されたモデルと新しいサンプルは、単にテーブルに追加するだけで実現できる。
我々の拡散モデルでは、共同のテキスト・イメージ・マルチモーダル・メトリックを利用することで、画像のみを訓練する。
論文 参考訳(メタデータ) (2022-04-06T14:13:35Z) - Enlisting 3D Crop Models and GANs for More Data Efficient and
Generalizable Fruit Detection [0.0]
本稿では,合成3次元作物モデルドメインから実世界の作物ドメインへの農業画像生成手法を提案する。
本手法は, 果実の位置と形状を保存するために, 意味的に制約されたGAN (generative adversarial network) を用いる。
ブドウ品種検出タスクにおける増分訓練実験により,本手法から生成した画像がドメインプロセスを大幅に高速化できることが判明した。
論文 参考訳(メタデータ) (2021-08-30T16:11:59Z) - Few-Shot Learning for Image Classification of Common Flora [0.0]
MAML(Model-Agnostic Meta Learning)を用いた画像分類のためのメタラーニング分野の最先端の研究と、さまざまな最先端のトランスファーラーニングウェイトとアーキテクチャをテストした結果を紹介します。
その結果、データセットが十分に大きい場合、両方のプラクティスが十分なパフォーマンスを提供しますが、十分なパフォーマンスを維持するためにデータスパーシャビリティが導入されると、どちらも苦労しています。
論文 参考訳(メタデータ) (2021-05-07T03:54:51Z) - Application of Facial Recognition using Convolutional Neural Networks
for Entry Access Control [0.0]
本論文は,画像中の人物を入力として捉え,その人物を著者の1人か否かを分類する,教師付き分類問題の解決に焦点をあてる。
提案手法は,(1)WoodNetと呼ばれるニューラルネットワークをスクラッチから構築し,トレーニングすること,(2)ImageNetデータベース上に事前トレーニングされたネットワークを利用することで,転送学習を活用すること,の2つである。
結果は、データセット内の個人を高い精度で分類し、保持されたテストデータに対して99%以上の精度で達成する2つのモデルである。
論文 参考訳(メタデータ) (2020-11-23T07:55:24Z) - Learning CNN filters from user-drawn image markers for coconut-tree
image classification [78.42152902652215]
本稿では,CNNの特徴抽出器を訓練するために,最小限のユーザ選択画像を必要とする手法を提案する。
本手法は,クラスを識別する画像領域のユーザ描画マーカーから,各畳み込み層のフィルタを学習する。
バックプロパゲーションに基づく最適化には依存せず、ココナッツツリー空中画像のバイナリ分類にその利点を実証する。
論文 参考訳(メタデータ) (2020-08-08T15:50:23Z) - DEAL: Deep Evidential Active Learning for Image Classification [0.0]
アクティブラーニング(AL)は、限られたラベル付きデータの問題を緩和するためのアプローチである。
CNNの最近のAL手法は、ラベル付けするインスタンスの選択に異なる解決策を提案する。
本稿では,ラベルのないデータから高い予測不確かさを捕捉して効率よく学習する新しいALアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-22T11:14:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。