論文の概要: Convolution Neural Network Hyperparameter Optimization Using Simplified
Swarm Optimization
- arxiv url: http://arxiv.org/abs/2103.03995v1
- Date: Sat, 6 Mar 2021 00:23:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 06:29:28.653070
- Title: Convolution Neural Network Hyperparameter Optimization Using Simplified
Swarm Optimization
- Title(参考訳): Simplified Swarm Optimization を用いた畳み込みニューラルネットワークハイパーパラメータ最適化
- Authors: Wei-Chang Yeh, Yi-Ping Lin, Yun-Chia Liang, Chyh-Ming Lai
- Abstract要約: 畳み込みニューラルネットワーク(CNN)はコンピュータビジョンで広く使われている。
パフォーマンスが向上したネットワークアーキテクチャを見つけるのは容易ではない。
- 参考スコア(独自算出の注目度): 2.322689362836168
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Among the machine learning approaches applied in computer vision,
Convolutional Neural Network (CNN) is widely used in the field of image
recognition. However, although existing CNN models have been proven to be
efficient, it is not easy to find a network architecture with better
performance. Some studies choose to optimize the network architecture, while
others chose to optimize the hyperparameters, such as the number and size of
convolutional kernels, convolutional strides, pooling size, etc. Most of them
are designed manually, which requires relevant expertise and takes a lot of
time. Therefore, this study proposes the idea of applying Simplified Swarm
Optimization (SSO) on the hyperparameter optimization of LeNet models while
using MNIST, Fashion MNIST, and Cifar10 as validation. The experimental results
show that the proposed algorithm has higher accuracy than the original LeNet
model, and it only takes a very short time to find a better hyperparameter
configuration after training. In addition, we also analyze the output shape of
the feature map after each layer, and surprisingly, the results were mostly
rectangular. The contribution of the study is to provide users with a simpler
way to get better results with the existing model., and this study can also be
applied to other CNN architectures.
- Abstract(参考訳): コンピュータビジョンに適用される機械学習手法のうち、畳み込みニューラルネットワーク(cnn)は画像認識の分野で広く使われている。
しかし、既存のCNNモデルは効率的であることが証明されているものの、優れた性能を持つネットワークアーキテクチャを見つけるのは容易ではない。
ネットワークアーキテクチャの最適化を選択する研究もある一方で、畳み込みカーネルの数やサイズ、畳み込みストライド、プールサイズなど、ハイパーパラメータを最適化する研究もある。
その多くは手動で設計されており、関連する専門知識と多くの時間を要する。
そこで本研究では,MNIST, Fashion MNIST, Cifar10を検証に用いながら,Simplified Swarm Optimization (SSO) をLeNetモデルのハイパーパラメータ最適化に適用するアイデアを提案する。
実験の結果,提案アルゴリズムは元のLeNetモデルよりも精度が高く,トレーニング後のハイパーパラメータ設定を改善するのに非常に短い時間しかかからないことがわかった。
さらに,各層における特徴マップの出力形状を解析し,驚いたことに,ほとんどが長方形であった。
この研究の貢献は、既存のモデルでより良い結果を得るためのよりシンプルな方法を提供することであり、この研究は他のcnnアーキテクチャにも適用できる。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Neural Architecture Search using Particle Swarm and Ant Colony
Optimization [0.0]
本稿では,OpenNASのSwarm Intelligence (SI)コンポーネントを用いたCNNのトレーニングと最適化に焦点を当てる。
画像の分類において,OpenNAS(Neural Architecture Search)のオープンソースツールを統合するシステムを開発した。
論文 参考訳(メタデータ) (2024-03-06T15:23:26Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Explicit Foundation Model Optimization with Self-Attentive Feed-Forward
Neural Units [4.807347156077897]
バックプロパゲーションを用いた反復近似法はニューラルネットワークの最適化を可能にするが、大規模に使用すると計算コストがかかる。
本稿では、ニューラルネットワークのスケーリングコストを削減し、低リソースアプリケーションに高効率な最適化を提供する、ニューラルネットワークの最適化のための効率的な代替手段を提案する。
論文 参考訳(メタデータ) (2023-11-13T17:55:07Z) - Receptive Field Refinement for Convolutional Neural Networks Reliably
Improves Predictive Performance [1.52292571922932]
本稿では,このような理論的および経験的性能向上をもたらす受容場解析への新たなアプローチを提案する。
我々のアプローチは、広く知られたSOTA(State-of-the-art)モデルクラスにおいて、ImageNet1Kのパフォーマンスを改善することができる。
論文 参考訳(メタデータ) (2022-11-26T05:27:44Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Greedy Network Enlarging [53.319011626986004]
本稿では,計算のリアルタイム化に基づくグリーディ・ネットワーク拡大手法を提案する。
異なる段階の計算をステップバイステップで修正することで、拡張されたネットワークはMACの最適な割り当てと利用を提供する。
GhostNetへの我々の手法の適用により、最先端の80.9%と84.3%のImageNet Top-1アキュラシーを実現する。
論文 参考訳(メタデータ) (2021-07-31T08:36:30Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Inferring Convolutional Neural Networks' accuracies from their
architectural characterizations [0.0]
CNNのアーキテクチャと性能の関係について検討する。
本稿では,2つのコンピュータビジョンに基づく物理問題において,その特性がネットワークの性能を予測できることを示す。
我々は機械学習モデルを用いて、トレーニング前にネットワークが一定のしきい値精度よりも優れた性能を発揮できるかどうかを予測する。
論文 参考訳(メタデータ) (2020-01-07T16:41:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。