論文の概要: A new Sparse Auto-encoder based Framework using Grey Wolf Optimizer for
Data Classification Problem
- arxiv url: http://arxiv.org/abs/2201.12493v1
- Date: Sat, 29 Jan 2022 04:28:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 07:41:07.963441
- Title: A new Sparse Auto-encoder based Framework using Grey Wolf Optimizer for
Data Classification Problem
- Title(参考訳): データ分類問題に対するGrey WolfOptimizerを用いた新しいスパースオートエンコーダベースフレームワーク
- Authors: Ahmad Mozaffer Karim
- Abstract要約: 列車のスパースオートエンコーダにグレーオオカミ最適化(GWO)を適用する。
モデルは、いくつかの人気のあるGene式データベースを使用することで検証される。
その結果、GWOを用いた学習モデルの性能は、一般的なメタヒューリスティックアルゴリズムで訓練された従来のモデルとモデルの両方で優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the most important properties of deep auto-encoders (DAEs) is their
capability to extract high level features from row data. Hence, especially
recently, the autoencoders are preferred to be used in various classification
problems such as image and voice recognition, computer security, medical data
analysis, etc. Despite, its popularity and high performance, the training phase
of autoencoders is still a challenging task, involving to select best
parameters that let the model to approach optimal results. Different training
approaches are applied to train sparse autoencoders. Previous studies and
preliminary experiments reveal that those approaches may present remarkable
results in same problems but also disappointing results can be obtained in
other complex problems. Metaheuristic algorithms have emerged over the last two
decades and are becoming an essential part of contemporary optimization
techniques. Gray wolf optimization (GWO) is one of the current of those
algorithms and is applied to train sparse auto-encoders for this study. This
model is validated by employing several popular Gene expression databases.
Results are compared with previous state-of-the art methods studied with the
same data sets and also are compared with other popular metaheuristic
algorithms, namely, Genetic Algorithms (GA), Particle Swarm Optimization (PSO)
and Artificial Bee Colony (ABC). Results reveal that the performance of the
trained model using GWO outperforms on both conventional models and models
trained with most popular metaheuristic algorithms.
- Abstract(参考訳): ディープオートエンコーダ(DAE)の最も重要な特性の1つは、行データから高レベル特徴を抽出する能力である。
したがって、特に近年では、画像や音声認識、コンピュータセキュリティ、医療データ分析などの様々な分類問題において、オートエンコーダが好まれている。
その人気と高いパフォーマンスにもかかわらず、オートエンコーダのトレーニングフェーズは依然として困難な課題であり、モデルが最適な結果に近づくための最適なパラメータを選択することを含む。
異なるトレーニングアプローチがスパースオートエンコーダの訓練に適用される。
先行研究と予備実験により、これらのアプローチが同様の問題に対して顕著な結果をもたらすだけでなく、他の複雑な問題においても失望的な結果が得られることが明らかとなった。
過去20年間にメタヒューリスティックアルゴリズムが登場し、現代最適化技術の重要な部分となっている。
gray wolf optimization(gwo)は、これらのアルゴリズムの現在の1つであり、この研究のためにスパースオートエンコーダのトレーニングに適用される。
このモデルは、いくつかの人気のあるGene式データベースを使用して検証される。
結果は、同じデータセットで研究された以前の最先端技術手法と比較され、他の一般的なメタヒューリスティックアルゴリズム、すなわち遺伝的アルゴリズム(ga)、粒子群最適化(pso)、人工蜂コロニー(abc)と比較される。
その結果、GWOを用いた学習モデルの性能は、一般的なメタヒューリスティックアルゴリズムで訓練された従来のモデルとモデルの両方で優れていた。
関連論文リスト
- RGCVAE: Relational Graph Conditioned Variational Autoencoder for
Molecule Design [70.59828655929194]
ディープグラフ変分自動エンコーダは、この問題に対処可能な、最も強力な機械学習ツールの1つである。
i)新しい強力なグラフ同型ネットワークを利用した符号化ネットワーク,(ii)新しい確率的復号化コンポーネントを提案する。
論文 参考訳(メタデータ) (2023-05-19T14:23:48Z) - On Equivalent Optimization of Machine Learning Methods [1.9573380763700712]
学習速度,バッチサイズ,層幅,データセット,アクティベーション関数の選択が,トレーニング中のネットワークパラメータの等価あるいは等価な進化につながる場合の一般的な特徴を示す。
その結果, バッチサイズ比, 層幅, データセットの性質(手書きと合成) およびアクティベーション関数が共役性に影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-02-17T22:15:20Z) - Enhancing Machine Learning Model Performance with Hyper Parameter
Optimization: A Comparative Study [0.0]
機械学習における最も重要な問題のひとつは、トレーニングモデルに適切なハイパーパラメータの選択である。
ハイパーパラメータ最適化(HPO)は、人工知能研究が最近注目している話題である。
本研究では,グリッドやランダム探索,ベイズ最適化などの古典的手法,遺伝的アルゴリズムや粒子群最適化といった人口ベースアルゴリズムについて論じる。
論文 参考訳(メタデータ) (2023-02-14T10:12:10Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - Bioinspired Cortex-based Fast Codebook Generation [0.09449650062296822]
脳内の知覚皮質ネットワークにインスパイアされた特徴抽出法を提案する。
バイオインスパイアされた大脳皮質と呼ばれるこのアルゴリズムは、より優れた計算効率を持つストリーミング信号の特徴に収束する。
ここでは、クラスタリングおよびベクトル量子化における大脳皮質モデルの優れた性能を示す。
論文 参考訳(メタデータ) (2022-01-28T18:37:43Z) - An Empirical Analysis of Recurrent Learning Algorithms In Neural Lossy
Image Compression Systems [73.48927855855219]
近年のディープラーニングの進歩により、JPEGとJPEG 2000を標準のKodakベンチマークで上回る画像圧縮アルゴリズムが実現している。
本稿では,最近の最先端ハイブリッドニューラル圧縮アルゴリズムの大規模比較を行う。
論文 参考訳(メタデータ) (2022-01-27T19:47:51Z) - RSO: A Novel Reinforced Swarm Optimization Algorithm for Feature
Selection [0.0]
本稿では,Reinforced Swarm Optimization (RSO) という特徴選択アルゴリズムを提案する。
このアルゴリズムは、広く使われているBee Swarm Optimization (BSO)アルゴリズムとReinforcement Learning (RL)アルゴリズムを組み込んで、優れた検索エージェントの報酬を最大化し、劣悪なエージェントを罰する。
提案手法は、バランスの取れたデータと不均衡なデータの完全なブレンドを含む、広く知られている25のUCIデータセットで評価される。
論文 参考訳(メタデータ) (2021-07-29T17:38:04Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。