論文の概要: SVD-NAS: Coupling Low-Rank Approximation and Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2208.10404v1
- Date: Mon, 22 Aug 2022 15:41:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 14:01:15.460840
- Title: SVD-NAS: Coupling Low-Rank Approximation and Neural Architecture Search
- Title(参考訳): SVD-NAS:低ランク近似とニューラルアーキテクチャ検索の結合
- Authors: Zhewen Yu, Christos-Savvas Bouganis
- Abstract要約: 本研究では,低ランク近似とニューラルアーキテクチャ探索の領域を結合したSVD-NASフレームワークを提案する。
その結果、SVD-NASは、データ制限問題設定における最先端手法よりも、ImageNet上で2.06-12.85pp高い精度を実現していることがわかった。
- 参考スコア(独自算出の注目度): 7.221206118679026
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The task of compressing pre-trained Deep Neural Networks has attracted wide
interest of the research community due to its great benefits in freeing
practitioners from data access requirements. In this domain, low-rank
approximation is a promising method, but existing solutions considered a
restricted number of design choices and failed to efficiently explore the
design space, which lead to severe accuracy degradation and limited compression
ratio achieved. To address the above limitations, this work proposes the
SVD-NAS framework that couples the domains of low-rank approximation and neural
architecture search. SVD-NAS generalises and expands the design choices of
previous works by introducing the Low-Rank architecture space, LR-space, which
is a more fine-grained design space of low-rank approximation. Afterwards, this
work proposes a gradient-descent-based search for efficiently traversing the
LR-space. This finer and more thorough exploration of the possible design
choices results in improved accuracy as well as reduction in parameters, FLOPS,
and latency of a CNN model. Results demonstrate that the SVD-NAS achieves
2.06-12.85pp higher accuracy on ImageNet than state-of-the-art methods under
the data-limited problem setting. SVD-NAS is open-sourced at
https://github.com/Yu-Zhewen/SVD-NAS.
- Abstract(参考訳): トレーニング済みのDeep Neural Networksを圧縮する作業は、データアクセス要件から実践者を解放するという大きなメリットのために、研究コミュニティの幅広い関心を集めている。
この領域では、低ランク近似は有望な手法であるが、既存のソリューションは限られた設計選択数と見なされ、設計空間を効率的に探索することができず、精度の低下と圧縮率の低下を招いた。
上記の制限に対処するために、低ランク近似とニューラルアーキテクチャ探索の領域を結合するSVD-NASフレームワークを提案する。
SVD-NASは、低ランク近似のよりきめ細かい設計空間である低ランクアーキテクチャ空間LR空間を導入することで、以前の作品の設計選択を一般化し拡張する。
その後、この研究は、LR空間を効率的に横断する勾配差に基づく探索を提案する。
この詳細かつ詳細な設計選択の探求により、cnnモデルのパラメータ、フラップ、レイテンシの削減に加えて、精度が向上した。
その結果、SVD-NASは、データ制限問題設定における最先端手法よりも、ImageNet上で2.06-12.85pp高い精度を実現している。
SVD-NASはhttps://github.com/Yu-Zhewen/SVD-NASでオープンソース化されている。
関連論文リスト
- Delta-NAS: Difference of Architecture Encoding for Predictor-based Evolutionary Neural Architecture Search [5.1331676121360985]
我々は,NASの微粒化を低コストで行うアルゴリズムを構築した。
類似ネットワークの精度の差を予測することにより,問題を低次元空間に投影することを提案する。
論文 参考訳(メタデータ) (2024-11-21T02:43:32Z) - Lightweight Monocular Depth with a Novel Neural Architecture Search
Method [46.97673710849343]
本稿では,軽量な単分子深度推定モデルを生成するために,LiDNASと呼ばれる新しいニューラルネットワーク探索手法を提案する。
我々は,階層の多様性と探索空間の大きさのバランスをとるために,事前に定義されたバックボーンネットワーク上に探索空間を構築した。
LiDNAS最適化モデルは、NYU-Depth-v2、KITTI、ScanNet上でのコンパクトな深さ推定よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2021-08-25T08:06:28Z) - Searching Efficient Model-guided Deep Network for Image Denoising [61.65776576769698]
モデルガイド設計とNAS(MoD-NAS)をつなぐ新しいアプローチを提案する。
MoD-NASは、再利用可能な幅探索戦略と密結合された探索ブロックを用いて、各層の操作を自動的に選択する。
いくつかの一般的なデータセットに対する実験結果から、我々のMoD-NASは現在の最先端手法よりもPSNR性能が向上していることが示された。
論文 参考訳(メタデータ) (2021-04-06T14:03:01Z) - BossNAS: Exploring Hybrid CNN-transformers with Block-wisely
Self-supervised Neural Architecture Search [100.28980854978768]
BossNAS(Block-wisely Self-supervised Neural Architecture Search)の紹介
探索空間をブロックに分類し、アンサンブルブートストラッピングと呼ばれる新しい自己教師型トレーニングスキームを用いて各ブロックを個別に訓練する。
また,検索可能なダウンサンプリング位置を持つファブリック型cnnトランスフォーマ検索空間であるhytra search spaceを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:05:58Z) - OPANAS: One-Shot Path Aggregation Network Architecture Search for Object
Detection [82.04372532783931]
近年、ニューラルアーキテクチャサーチ (NAS) が特徴ピラミッドネットワーク (FPN) の設計に活用されている。
本稿では,探索効率と検出精度を大幅に向上させる,ワンショットパス集約ネットワークアーキテクチャ探索(OPANAS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T01:48:53Z) - Smooth Variational Graph Embeddings for Efficient Neural Architecture
Search [41.62970837629573]
本研究では,探索空間からニューラルネットワークをスムーズにエンコードし,正確に再構築できる2面変分グラフオートエンコーダを提案する。
ENASアプローチ,NAS-Bench-101およびNAS-Bench-201探索空間で定義されたニューラルネットワークに対する提案手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-09T17:05:41Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - Geometry-Aware Gradient Algorithms for Neural Architecture Search [41.943045315986744]
重み付けによるNASを理解するために,単一レベルの経験的リスク最小化の研究を議論する。
本稿では,この最適化の基盤となる構造を利用して,疎度なアーキテクチャパラメータを返却する幾何対応フレームワークを提案する。
コンピュータビジョンにおける最新のNASベンチマークにおいて、最先端の精度を実現する。
論文 参考訳(メタデータ) (2020-04-16T17:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。