論文の概要: GoPrune: Accelerated Structured Pruning with $\ell_{2,p}$-Norm Optimization
- arxiv url: http://arxiv.org/abs/2511.22120v1
- Date: Thu, 27 Nov 2025 05:24:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.408183
- Title: GoPrune: Accelerated Structured Pruning with $\ell_{2,p}$-Norm Optimization
- Title(参考訳): GoPrune:$\ell_{2,p}$-Norm最適化による高速化された構造化プルーニング
- Authors: Li Xu, Xianchao Xiu,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、その深さが大きくなるにつれて、ストレージと計算コストが急速に増大する。
本稿では,これらの制約を克服するために,GoPruneと呼ばれる高速な構造化プルーニング手法を提案する。
ResNet と VGG モデルを用いた CIFAR データセットの実験により,提案手法のネットワークプルーニングにおける優れた性能を示す。
- 参考スコア(独自算出の注目度): 9.51204051181328
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) suffer from rapidly increasing storage and computational costs as their depth grows, which severely hinders their deployment on resource-constrained edge devices. Pruning is a practical approach for network compression, among which structured pruning is the most effective for inference acceleration. Although existing work has applied the $\ell_p$-norm to pruning, it only considers unstructured pruning with $p\in (0, 1)$ and has low computational efficiency. To overcome these limitations, we propose an accelerated structured pruning method called GoPrune. Our method employs the $\ell_{2,p}$-norm for sparse network learning, where the value of $p$ is extended to $[0, 1)$. Moreover, we develop an efficient optimization algorithm based on the proximal alternating minimization (PAM), and the resulting subproblems enjoy closed-form solutions, thus improving compression efficiency. Experiments on the CIFAR datasets using ResNet and VGG models demonstrate the superior performance of the proposed method in network pruning. Our code is available at https://github.com/xianchaoxiu/GoPrune.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、深度が大きくなるにつれてストレージと計算コストが急速に増加し、リソース制約されたエッジデバイスへのデプロイメントを著しく妨げている。
プルーニングはネットワーク圧縮の実践的手法であり、構造化プルーニングは推論加速に最も効果的である。
既存の研究はプルーニングに$\ell_p$-normを適用しているが、$p\in (0, 1)$の非構造化プルーニングのみを考慮し、計算効率は低い。
これらの制限を克服するため、GoPruneと呼ばれる高速な構造化プルーニング手法を提案する。
我々の方法はスパースネットワーク学習に$\ell_{2,p}$-normを使用し、$p$の値は$[0, 1)$に拡張される。
さらに、近似交互最小化(PAM)に基づく効率的な最適化アルゴリズムを開発し、その結果のサブプロブレムは閉形式解を享受し、圧縮効率を向上する。
ResNet と VGG モデルを用いた CIFAR データセットの実験により,提案手法のネットワークプルーニングにおける優れた性能を示す。
私たちのコードはhttps://github.com/xianchaoxiu/GoPrune.comから入手可能です。
関連論文リスト
- End-to-End Neural Network Compression via $\frac{\ell_1}{\ell_2}$
Regularized Latency Surrogates [20.31383698391339]
我々のアルゴリズムは多用途であり、プルーニング、低ランク因数分解、量子化など多くの一般的な圧縮手法で利用することができる。
高速で、シングルモデルトレーニングとほぼ同じ時間で実行される。
論文 参考訳(メタデータ) (2023-06-09T09:57:17Z) - Efficient Latency-Aware CNN Depth Compression via Two-Stage Dynamic
Programming [15.458305667190256]
本稿では,一般的な畳み込み操作を対象とする新しい深度圧縮アルゴリズムを提案する。
ImageNetのMobileNetV2-1.0では、0.11%の精度で1.41タイムのスピードアップを実現しています。
論文 参考訳(メタデータ) (2023-01-28T13:08:54Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Communication-Efficient Adam-Type Algorithms for Distributed Data Mining [93.50424502011626]
我々はスケッチを利用した新しい分散Adam型アルゴリズムのクラス(例:SketchedAMSGrad)を提案する。
我々の新しいアルゴリズムは、反復毎に$O(frac1sqrtnT + frac1(k/d)2 T)$の高速収束率を$O(k log(d))$の通信コストで達成する。
論文 参考訳(メタデータ) (2022-10-14T01:42:05Z) - Interspace Pruning: Using Adaptive Filter Representations to Improve
Training of Sparse CNNs [69.3939291118954]
非構造プルーニングは畳み込みニューラルネットワーク(CNN)のメモリフットプリントを削減するのに適している
標準非構造化プルーニング(SP)はフィルタ要素をゼロにすることでCNNのメモリフットプリントを削減する。
既存のプルーニング法を改善する汎用ツールであるインタースペースプルーニング(IP)を導入する。
論文 参考訳(メタデータ) (2022-03-15T11:50:45Z) - Dynamic Probabilistic Pruning: A general framework for
hardware-constrained pruning at different granularities [80.06422693778141]
異なる粒度(重み、カーネル、フィルタ/フィーチャーマップ)での刈り取りを容易にするフレキシブルな新しい刈り取り機構を提案する。
このアルゴリズムをDPP(Dynamic Probabilistic Pruning)と呼ぶ。
DPPは、画像分類のための異なるベンチマークデータセットで訓練された一般的なディープラーニングモデルを刈り取る際に、競合圧縮率と分類精度を達成する。
論文 参考訳(メタデータ) (2021-05-26T17:01:52Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - Single-path Bit Sharing for Automatic Loss-aware Model Compression [126.98903867768732]
シングルパスビット共有(SBS)は、計算コストを大幅に削減し、有望な性能を達成する。
SBS圧縮MobileNetV2は、Top-1の精度がわずか0.1%低下した22.6倍ビット演算(BOP)を実現する。
論文 参考訳(メタデータ) (2021-01-13T08:28:21Z) - Learned Threshold Pruning [15.394473766381518]
本手法は, 入力として設定された従来の手法とは異なり, 勾配降下による層間しきい値の学習を行う。
ImageNet上のResNet50を9.1ドルでチューニングするには30ドルかかる。
また,EfficientNet,MobileNetV2,MixNetなどのモダンなテキストコンポーネントのアーキテクチャを効果的にチューニングできることも示す。
論文 参考訳(メタデータ) (2020-02-28T21:32:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。