論文の概要: Identification of chicken egg fertility using SVM classifier based on
first-order statistical feature extraction
- arxiv url: http://arxiv.org/abs/2201.04063v1
- Date: Mon, 10 Jan 2022 04:29:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 22:25:19.403188
- Title: Identification of chicken egg fertility using SVM classifier based on
first-order statistical feature extraction
- Title(参考訳): 統計的特徴抽出に基づくSVM分類器を用いたニワトリ卵肥育の同定
- Authors: Shoffan Saifullah, Andiko Putro Suryotomo
- Abstract要約: 本研究は,まだ手作業であるプロセスの識別プロセスに基づいて開発された(従来型)。
識別プロセスには多くの技術があるが、まだ開発が必要である。
同定法は成功率84.57%である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study aims to identify chicken eggs fertility using the support vector
machine (SVM) classifier method. The classification basis used the first-order
statistical (FOS) parameters as feature extraction in the identification
process. This research was developed based on the process's identification
process, which is still manual (conventional). Although currently there are
many technologies in the identification process, they still need development.
Thus, this research is one of the developments in the field of image processing
technology. The sample data uses datasets from previous studies with a total of
100 egg images. The egg object in the image is a single object. From these
data, the classification of each fertile and infertile egg is 50 image data.
Chicken egg image data became input in image processing, with the initial
process is segmentation. This initial segmentation aims to get the cropped
image according to the object. The cropped image is repaired using image
preprocessing with grayscaling and image enhancement methods. This method
(image enhancement) used two combination methods: contrast limited adaptive
histogram equalization (CLAHE) and histogram equalization (HE). The improved
image becomes the input for feature extraction using the FOS method. The FOS
uses five parameters, namely mean, entropy, variance, skewness, and kurtosis.
The five parameters entered into the SVM classifier method to identify the
fertility of chicken eggs. The results of these experiments, the method
proposed in the identification process has a success percentage of 84.57%.
Thus, the implementation of this method can be used as a reference for future
research improvements. In addition, it may be possible to use a second-order
feature extraction method to improve its accuracy and improve supervised
learning for classification.
- Abstract(参考訳): 本研究の目的は,支援ベクターマシン(SVM)分類器を用いて鶏卵の受精を同定することである。
分類基準は識別過程における特徴抽出として一階統計(fos)パラメータを用いた。
この研究は、まだ手動(慣習的)であるプロセスの識別プロセスに基づいて開発された。
現在、識別プロセスには多くの技術があるが、開発が必要である。
このように、この研究は画像処理技術の分野における発展の1つである。
サンプルデータは、100個の卵の画像を含む以前の研究から得られたデータセットを使用する。
画像内の卵オブジェクトは単一のオブジェクトです。
これらのデータから、受精卵と不妊卵の分類は50の画像データである。
鶏卵の画像データは画像処理で入力され、最初のプロセスはセグメンテーションである。
この最初のセグメンテーションは、オブジェクトに従って切り抜かれたイメージを取得することを目的としている。
切り抜いた画像は、グレースケーリングと画像強調による画像前処理を用いて修復される。
この方法(画像強調)は、コントラスト制限適応ヒストグラム等化(clahe)とヒストグラム等化(he)の2つの組み合わせ法を用いた。
改良された画像はFOS法による特徴抽出の入力となる。
FOSは5つのパラメータ、すなわち平均、エントロピー、分散、歪、およびクルトーシスを使用する。
SVM分類法に入力された5つのパラメータは,鶏卵の受精度を同定する。
これらの実験の結果, 同定過程で提案する手法は, 成功率84.57%であった。
したがって,本手法の実装は今後の研究改善の参考として利用することができる。
さらに,2次特徴抽出法を用いてその精度を向上し,分類のための教師あり学習を改善することができる。
関連論文リスト
- CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - ADDP: Learning General Representations for Image Recognition and Generation with Alternating Denoising Diffusion Process [94.41510903676837]
本稿では,2つの空間を1つの表現学習フレームワークに統合した交互デノナイジング拡散プロセス(ADDP)を提案する。
復号化の各ステップでは、まず以前のVQトークンから画素をデコードし、次にデコードされたピクセルから新しいVQトークンを生成する。
学習した表現は、多彩な高忠実度画像の生成や、認識タスクにおける優れた転送性能を示すために使用することができる。
論文 参考訳(メタデータ) (2023-06-08T17:59:32Z) - Data Augmentation Vision Transformer for Fine-grained Image
Classification [1.6211899643913996]
本稿では,データ拡張に基づくデータ拡張ビジョントランス (DAVT) を提案する。
また,階層的注意選択(HAS)手法を提案し,学習レベル間の識別マーカーの識別能力を向上させる。
実験結果から,CUB-200-2011とStanford Dogsの2つの一般データセットにおける本手法の精度は,従来の主流手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-11-23T11:34:11Z) - Wild Animal Classifier Using CNN [0.0]
畳み込みニューラルネットワーク(CNN)は、特定の入力を予測するために異なる重みを持つ複数の層を持つ。
画像セグメンテーションは、画像の関心領域の明確な区切りを提供する、そのような広く使われている画像処理手法である。
論文 参考訳(メタデータ) (2022-10-03T13:14:08Z) - Seamless Iterative Semi-Supervised Correction of Imperfect Labels in
Microscopy Images [57.42492501915773]
生体内試験は、医療機器の毒性に対する動物実験の代替手段である。
人間の疲労は、深層学習を魅力的なものにするために、エラー作成に重要な役割を果たします。
我々は、不完全ラベルのシームレス反復半監督補正(SISSI)を提案する。
本手法は,物体検出に適応的な早期学習補正技術を提供する。
論文 参考訳(メタデータ) (2022-08-05T18:52:20Z) - mc-BEiT: Multi-choice Discretization for Image BERT Pre-training [52.04866462439979]
Image BERT pre-training with masked image modeling (MIM)は、自己教師付き表現学習に対処する一般的な実践である。
改良されたBERTスタイルの画像事前学習手法であるmc-BEiTを導入する。
論文 参考訳(メタデータ) (2022-03-29T09:08:18Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Segmentasi Citra Menggunakan Metode Watershed Transform Berdasarkan
Image Enhancement Dalam Mendeteksi Embrio Telur [0.0]
卵胚検出は、セグメンテーションプロセスを用いて処理される。
セグメンテーションは、分割された領域に応じてイメージを分割する。
セグメンテーションの結果は、胚を持つ卵の面積を98%の精度で分割することができる。
論文 参考訳(メタデータ) (2021-02-08T14:03:51Z) - Global Image Segmentation Process using Machine Learning algorithm &
Convolution Neural Network method for Self- Driving Vehicles [0.0]
自動運転車では、画像のセグメンテーションが視覚的知覚の重要な問題であった。
そこで我々は,周辺環境におけるエージェントの予測のための視覚知覚タスクに,画像分割プロセスを採用した。
また,NVDIA GeForce GTX 1050 GPUを用いて90FPSの推論速度を実現する。
論文 参考訳(メタデータ) (2020-10-26T02:51:00Z) - Variational Clustering: Leveraging Variational Autoencoders for Image
Clustering [8.465172258675763]
変分オートエンコーダ(VAE)は、潜在空間におけるデータ分布の学習に自然に役立ちます。
画像のクラスタリングに先立ってガウス混合を用いるVAEに基づく手法を提案する。
提案手法は,画像の潜伏分布と後部を捉える前処理を同時に学習し,データポイント間の識別に役立てる。
論文 参考訳(メタデータ) (2020-05-10T09:34:48Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。