論文の概要: Two Novel Performance Improvements for Evolving CNN Topologies
- arxiv url: http://arxiv.org/abs/2102.05451v1
- Date: Wed, 10 Feb 2021 14:17:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 14:52:20.005805
- Title: Two Novel Performance Improvements for Evolving CNN Topologies
- Title(参考訳): CNNトポロジ進化のための2つの新しい性能改善
- Authors: Yaron Strauch (University of Southampton), Jo Grundy (University of
Southampton)
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、画像処理のための最先端のアルゴリズムである。
この研究では、これらのアルゴリズムの利用に2つの新しいアプローチが提示され、複雑さとトレーニング時間を20%近く短縮するのに効果的である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Convolutional Neural Networks (CNNs) are the state-of-the-art algorithms for
the processing of images. However the configuration and training of these
networks is a complex task requiring deep domain knowledge, experience and much
trial and error. Using genetic algorithms, competitive CNN topologies for image
recognition can be produced for any specific purpose, however in previous work
this has come at high computational cost. In this work two novel approaches are
presented to the utilisation of these algorithms, effective in reducing
complexity and training time by nearly 20%. This is accomplished via
regularisation directly on training time, and the use of partial training to
enable early ranking of individual architectures. Both approaches are validated
on the benchmark CIFAR10 data set, and maintain accuracy.
- Abstract(参考訳): Convolutional Neural Networks(CNN)は、画像の処理のための最先端のアルゴリズムです。
しかし、これらのネットワークの構成とトレーニングは、深いドメイン知識、経験、多くの試行錯誤を必要とする複雑なタスクである。
遺伝的アルゴリズムを用いて、画像認識のための競合するCNNトポロジを任意の目的のために作成することができるが、以前の研究では計算コストが高い。
この研究では、複雑さとトレーニング時間の20%近く削減に効果的である2つの新しいアプローチがこれらのアルゴリズムの活用に提示されている。
これはトレーニング時間に直接規則化し、個々のアーキテクチャの早期ランキングを可能にするために部分トレーニングを使用することによって達成される。
どちらのアプローチもベンチマークCIFAR10データセットで検証され、精度が維持される。
関連論文リスト
- Image edge enhancement for effective image classification [7.470763273994321]
ニューラルネットワークの精度とトレーニング速度を両立させるエッジ拡張に基づく手法を提案する。
我々のアプローチは、利用可能なデータセット内の画像からエッジなどの高周波特徴を抽出し、元の画像と融合させることである。
論文 参考訳(メタデータ) (2024-01-13T10:01:34Z) - Training Convolutional Neural Networks with the Forward-Forward
algorithm [1.74440662023704]
Forward Forward (FF)アルゴリズムは、現在まで完全に接続されたネットワークでしか使われていない。
FFパラダイムをCNNに拡張する方法を示す。
我々のFF学習したCNNは、空間的に拡張された新しいラベリング手法を特徴とし、MNISTの手書き桁データセットにおいて99.16%の分類精度を実現している。
論文 参考訳(メタデータ) (2023-12-22T18:56:35Z) - On the Convergence of Distributed Stochastic Bilevel Optimization
Algorithms over a Network [55.56019538079826]
バイレベル最適化は、幅広い機械学習モデルに適用されている。
既存のアルゴリズムの多くは、分散データを扱うことができないように、シングルマシンの設定を制限している。
そこで我々は,勾配追跡通信機構と2つの異なる勾配に基づく分散二段階最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-30T05:29:52Z) - Convolutional Analysis Operator Learning by End-To-End Training of
Iterative Neural Networks [3.6280929178575994]
本稿では、反復ニューラルネットワークのエンドツーエンドトレーニングにより、畳み込みスペーシングフィルタを効率的に学習する方法を示す。
我々は,非カルテシアン2次元心血管MRI例に対するアプローチを検証し,得られたフィルタが,デカップリングプレトレーニングにより得られたものよりも,対応する再構成アルゴリズムに適していることを示した。
論文 参考訳(メタデータ) (2022-03-04T07:32:16Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Accelerated MRI with Un-trained Neural Networks [29.346778609548995]
トレーニングなしニューラルネットワークを用いた高速化MRIにおける再構成問題に対処する。
本稿では,Deep Decoderのバリエーションに基づいて,高度に最適化された未学習リカバリ手法を提案する。
トレーニングされていないアルゴリズムはベースライントレーニングされたニューラルネットワークと同じような性能を達成するが、最先端トレーニングされたネットワークはトレーニングされていないニューラルネットワークよりも優れる。
論文 参考訳(メタデータ) (2020-07-06T00:01:25Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Exploring the Connection Between Binary and Spiking Neural Networks [1.329054857829016]
両立ニューラルネットワークとスパイクニューラルネットワークの訓練における最近のアルゴリズムの進歩を橋渡しする。
極端量子化システムにおけるスパイキングニューラルネットワークのトレーニングは,大規模データセット上でのほぼ完全な精度向上をもたらすことを示す。
論文 参考訳(メタデータ) (2020-02-24T03:46:51Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。