論文の概要: Computer-aided Interpretable Features for Leaf Image Classification
- arxiv url: http://arxiv.org/abs/2106.08077v1
- Date: Tue, 15 Jun 2021 12:11:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 21:27:13.921625
- Title: Computer-aided Interpretable Features for Leaf Image Classification
- Title(参考訳): リーフ画像分類のためのコンピュータ支援解釈機能
- Authors: Jayani P. G. Lakshika, Thiyanga S. Talagala
- Abstract要約: 52種類の植物を分類するための計算効率の良い特徴を紹介する。
長さ、幅、面積、テクスチャの相関、単調性、発癌性は少ない。
その結果,教師付き学習環境と教師なし学習環境の両方において,興味のクラスを識別するのに十分な特徴があることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Plant species identification is time consuming, costly, and requires lots of
efforts, and expertise knowledge. In recent, many researchers use deep learning
methods to classify plants directly using plant images. While deep learning
models have achieved a great success, the lack of interpretability limit their
widespread application. To overcome this, we explore the use of interpretable,
measurable and computer-aided features extracted from plant leaf images. Image
processing is one of the most challenging, and crucial steps in
feature-extraction. The purpose of image processing is to improve the leaf
image by removing undesired distortion. The main image processing steps of our
algorithm involves: i) Convert original image to RGB (Red-Green-Blue) image,
ii) Gray scaling, iii) Gaussian smoothing, iv) Binary thresholding, v) Remove
stalk, vi) Closing holes, and vii) Resize image. The next step after image
processing is to extract features from plant leaf images. We introduced 52
computationally efficient features to classify plant species. These features
are mainly classified into four groups as: i) shape-based features, ii)
color-based features, iii) texture-based features, and iv) scagnostic features.
Length, width, area, texture correlation, monotonicity and scagnostics are to
name few of them. We explore the ability of features to discriminate the
classes of interest under supervised learning and unsupervised learning
settings. For that, supervised dimensionality reduction technique, Linear
Discriminant Analysis (LDA), and unsupervised dimensionality reduction
technique, Principal Component Analysis (PCA) are used to convert and visualize
the images from digital-image space to feature space. The results show that the
features are sufficient to discriminate the classes of interest under both
supervised and unsupervised learning settings.
- Abstract(参考訳): 植物種の識別には時間と費用がかかり、多くの努力と専門知識が必要である。
近年,多くの研究者が植物画像を直接分類するために深層学習手法を採用している。
ディープラーニングモデルは大きな成功を収めていますが、解釈可能性の欠如は、その広範にわたる適用を制限しています。
そこで本研究では,植物葉画像から抽出した解釈可能,測定可能,コンピュータ支援機能の利用について検討する。
画像処理は、機能抽出における最も困難で重要なステップの1つです。
画像処理の目的は、望ましくない歪みを除去して葉画像を改善することである。
アルゴリズムの主な画像処理ステップは, i) オリジナル画像を rgb (red-green-blue) 画像に変換する, ii) グレースケーリング, iii) ガウス平滑化, iv) バイナリしきい値化, v) ストーク除去, vi) 閉孔, vii) リサイズ画像に変換する。
画像処理の次のステップは、植物葉画像から特徴を抽出することである。
植物種を分類するために52個の計算効率の良い特徴を導入した。
これらの特徴は主に4つのグループに分類される: i) 形状に基づく特徴、ii) 色に基づく特徴、iii) テクスチャに基づく特徴、および iv) 不可視な特徴。
長さ、幅、面積、テクスチャの相関、単調性、発癌性は少ない。
本研究では,教師付き学習と教師なし学習環境下での関心のクラスを識別する機能について検討する。
そのため、デジタル画像空間から特徴空間への画像を変換・可視化するために、教師付き次元減少技術、線形判別分析(LDA)、教師なし次元減少技術、主成分分析(PCA)を用いる。
その結果,教師なし学習と教師なし学習の両方において,興味のあるクラスを識別するのに十分な特徴が得られた。
関連論文リスト
- Advancements in Feature Extraction Recognition of Medical Imaging Systems Through Deep Learning Technique [0.36651088217486427]
高速な画像認識を実現するために,重みに基づく目的関数を提案する。
単純なアルゴリズムを用いたしきい値最適化手法を提案する。
異なる種類のオブジェクトは互いに独立しており、画像処理においてコンパクトであることがわかった。
論文 参考訳(メタデータ) (2024-05-23T04:46:51Z) - Grad-CAMO: Learning Interpretable Single-Cell Morphological Profiles from 3D Cell Painting Images [0.0]
教師付き特徴抽出器のための新しい単一セル解釈可能性スコアであるGrad-CAMOを紹介する。
Grad-CAMOは、関心の細胞と背景の細胞に集中しているモデルの注意率を測定する。
論文 参考訳(メタデータ) (2024-03-26T11:48:37Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Scalable Visual Attribute Extraction through Hidden Layers of a Residual
ConvNet [7.6702700993064115]
本稿では,一般畳み込みネットワークの隠れたレイヤの学習能力を活用し,画像から視覚属性を抽出する手法を提案する。
imagenetでトレーニングされたresnet-50を用いて実験を行い、色とテクスチャを区別するために異なるブロックの出力を評価する。
論文 参考訳(メタデータ) (2021-03-31T23:39:20Z) - Factors of Influence for Transfer Learning across Diverse Appearance
Domains and Task Types [50.1843146606122]
現在の最新のコンピュータビジョンモデルでは、簡単な転送学習が一般的です。
転校学習に関するこれまでの体系的な研究は限られており、作業が期待される状況は十分に理解されていない。
本論文では,非常に異なる画像領域にまたがる転送学習の広範な実験的研究を行う。
論文 参考訳(メタデータ) (2021-03-24T16:24:20Z) - Automatic Radish Wilt Detection Using Image Processing Based Techniques
and Machine Learning Algorithm [3.4392739159262145]
本研究では,ラディッシュ作物のフッ化物検出のためのセグメンテーション法と抽出法を提案する。
最近のワイト検出アルゴリズムは、画像処理技術または従来の機械学習アルゴリズムに基づいている。
提案手法は,画像処理と機械学習を組み合わせたハイブリッドアルゴリズムに基づいている。
論文 参考訳(メタデータ) (2020-09-01T01:37:01Z) - Saliency-driven Class Impressions for Feature Visualization of Deep
Neural Networks [55.11806035788036]
分類に欠かせないと思われる特徴を視覚化することは有利である。
既存の可視化手法は,背景特徴と前景特徴の両方からなる高信頼画像を生成する。
本研究では,あるタスクにおいて最も重要であると考えられる識別的特徴を可視化するための,サリエンシ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2020-07-31T06:11:06Z) - Learning RGB-D Feature Embeddings for Unseen Object Instance
Segmentation [67.88276573341734]
合成データからRGB-D特徴埋め込みを学習し,オブジェクトのインスタンスセグメンテーションを未確認する手法を提案する。
距離学習損失関数を用いて画素単位の機能埋め込みを学習する。
新たな2段階クラスタリングアルゴリズムにより,セグメンテーションの精度をさらに向上する。
論文 参考訳(メタデータ) (2020-07-30T00:23:07Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - Geometrically Mappable Image Features [85.81073893916414]
地図内のエージェントの視覚に基づくローカライゼーションは、ロボット工学とコンピュータビジョンにおいて重要な問題である。
本稿では,画像検索を対象とした画像特徴学習手法を提案する。
論文 参考訳(メタデータ) (2020-03-21T15:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。