論文の概要: CONet: Channel Optimization for Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2108.06822v1
- Date: Sun, 15 Aug 2021 21:48:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 15:19:37.936730
- Title: CONet: Channel Optimization for Convolutional Neural Networks
- Title(参考訳): conet:畳み込みニューラルネットワークのためのチャネル最適化
- Authors: Mahdi S. Hosseini, Jia Shu Zhang, Zhe Liu, Andre Fu, Jingxuan Su,
Mathieu Tuli and Konstantinos N. Plataniotis
- Abstract要約: 畳み込みニューラルネットワーク(CNN)におけるチャネルサイズ最適化の検討
ネットワーク層をまたいだCNNのチャネルサイズを自動的に最適化する,効率的な動的スケーリングアルゴリズムであるConetを導入します。
CIFAR10/100およびImageNetデータセット上で実験を行い、ConetがResNet、DARTS、DARTS+空間で探索された効率的で正確なアーキテクチャを見つけることができることを示す。
- 参考スコア(独自算出の注目度): 33.58529066005248
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Neural Architecture Search (NAS) has shifted network design from using human
intuition to leveraging search algorithms guided by evaluation metrics. We
study channel size optimization in convolutional neural networks (CNN) and
identify the role it plays in model accuracy and complexity. Current channel
size selection methods are generally limited by discrete sample spaces while
suffering from manual iteration and simple heuristics. To solve this, we
introduce an efficient dynamic scaling algorithm -- CONet -- that automatically
optimizes channel sizes across network layers for a given CNN. Two metrics --
``\textit{Rank}" and "\textit{Rank Average Slope}" -- are introduced to
identify the information accumulated in training. The algorithm dynamically
scales channel sizes up or down over a fixed searching phase. We conduct
experiments on CIFAR10/100 and ImageNet datasets and show that CONet can find
efficient and accurate architectures searched in ResNet, DARTS, and DARTS+
spaces that outperform their baseline models.
- Abstract(参考訳): ニューラル・アーキテクチャ・サーチ(nas)は、ネットワーク設計を人間の直観から評価指標に導かれた検索アルゴリズムの活用へとシフトした。
畳み込みニューラルネットワーク(cnn)におけるチャネルサイズ最適化について検討し,モデル精度と複雑性に果たす役割について検討した。
現在のチャネルサイズ選択手法は、手動の反復と単純なヒューリスティックに苦しむ一方で、個別のサンプル空間によって制限される。
これを解決するために,ネットワーク層間のチャネルサイズを自動的に最適化する効率的な動的スケーリングアルゴリズムconetを導入する。
トレーニングに蓄積された情報を特定するために、2つのメトリクス -`\textit{Rank}" と "\textit{Rank Average Slope}" が導入された。
このアルゴリズムは、固定探索フェーズ上でチャネルサイズを動的にスケールアップする。
CIFAR10/100およびImageNetデータセット上で実験を行い、ConetがResNet、DARTS、DARTS+空間で探索された効率的で正確なアーキテクチャを見つけられることを示す。
関連論文リスト
- Testing the Channels of Convolutional Neural Networks [8.927538538637783]
畳み込みニューラルネットワーク(CNN)のチャネルをテストする手法を提案する。
GANの拡張であるFtGANを設計し、ターゲットCNNのチャネルの強度を変化させてテストデータを生成する。
また,テストのための代表的なチャネルを見つけるためのチャネル選択アルゴリズムも提案した。
論文 参考訳(メタデータ) (2023-03-06T09:58:39Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - CONetV2: Efficient Auto-Channel Size Optimization for CNNs [35.951376988552695]
本研究は,チャネルサイズのマイクロサーチ空間を調べることにより,計算制約のある環境において効率的な手法を提案する。
チャネルサイズ最適化に際し、ネットワークの異なる接続層内の依存関係を抽出する自動アルゴリズムを設計する。
また、テスト精度と高い相関性を持ち、個々のネットワーク層を解析できる新しいメトリクスも導入する。
論文 参考訳(メタデータ) (2021-10-13T16:17:19Z) - Group Fisher Pruning for Practical Network Compression [58.25776612812883]
本稿では,様々な複雑な構造に応用可能な汎用チャネルプルーニング手法を提案する。
我々は、単一チャネルと結合チャネルの重要性を評価するために、フィッシャー情報に基づく統一されたメトリクスを導出する。
提案手法は,結合チャネルを含む任意の構造をプルークするために利用できる。
論文 参考訳(メタデータ) (2021-08-02T08:21:44Z) - Genetic U-Net: Automatically Designed Deep Networks for Retinal Vessel
Segmentation Using a Genetic Algorithm [2.6629444004809826]
遺伝的U-Netは、より優れた網膜血管セグメンテーションを実現することができるが、アーキテクチャに基づくパラメータが少ないU字型畳み込みニューラルネットワーク(CNN)を生成するために提案されている。
実験の結果,提案手法を用いて得られたアーキテクチャは,元のU-Netパラメータの1%以下で優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-29T13:31:36Z) - AutoPruning for Deep Neural Network with Dynamic Channel Masking [28.018077874687343]
深層ニューラルネットワークのための学習に基づくオートプルーニングアルゴリズムを提案する。
まず、各層に対する重みと最良チャネルを目的とする2つの目的の問題を定式化する。
次に、最適なチャネル数と重みを同時に導出するために、別の最適化手法を提案する。
論文 参考訳(メタデータ) (2020-10-22T20:12:46Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Channel Assignment in Uplink Wireless Communication using Machine
Learning Approach [54.012791474906514]
本稿では,アップリンク無線通信システムにおけるチャネル割り当て問題について検討する。
我々の目標は、整数チャネル割り当て制約を受ける全ユーザの総和率を最大化することです。
計算複雑性が高いため、機械学習アプローチは計算効率のよい解を得るために用いられる。
論文 参考訳(メタデータ) (2020-01-12T15:54:20Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。