論文の概要: FGFP: A Fractional Gaussian Filter and Pruning for Deep Neural Networks Compression
- arxiv url: http://arxiv.org/abs/2507.22527v1
- Date: Wed, 30 Jul 2025 09:56:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.127939
- Title: FGFP: A Fractional Gaussian Filter and Pruning for Deep Neural Networks Compression
- Title(参考訳): FGFP: 深部ニューラルネットワーク圧縮のためのフラクショナルガウスフィルタとプルーニング
- Authors: Kuan-Ting Tu, Po-Hsien Yu, Yu-Syuan Tseng, Shao-Yi Chien,
- Abstract要約: 分数次微分計算とガウス関数を統合した分数次ガウスフィルタおよびプルーニングフレームワークを提案する。
様々なアーキテクチャとベンチマークの実験により、FGFPフレームワークは、最近の精度と圧縮の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 10.858526460473731
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network compression techniques have become increasingly important in recent years because the loads of Deep Neural Networks (DNNs) are heavy for edge devices in real-world applications. While many methods compress neural network parameters, deploying these models on edge devices remains challenging. To address this, we propose the fractional Gaussian filter and pruning (FGFP) framework, which integrates fractional-order differential calculus and Gaussian function to construct fractional Gaussian filters (FGFs). To reduce the computational complexity of fractional-order differential operations, we introduce Gr\"unwald-Letnikov fractional derivatives to approximate the fractional-order differential equation. The number of parameters for each kernel in FGF is minimized to only seven. Beyond the architecture of Fractional Gaussian Filters, our FGFP framework also incorporates Adaptive Unstructured Pruning (AUP) to achieve higher compression ratios. Experiments on various architectures and benchmarks show that our FGFP framework outperforms recent methods in accuracy and compression. On CIFAR-10, ResNet-20 achieves only a 1.52% drop in accuracy while reducing the model size by 85.2%. On ImageNet2012, ResNet-50 achieves only a 1.63% drop in accuracy while reducing the model size by 69.1%.
- Abstract(参考訳): 近年、ディープニューラルネットワーク(DNN)の負荷が、現実世界のアプリケーションにおけるエッジデバイスにとって重くなっているため、ネットワーク圧縮技術がますます重要になっている。
多くの方法はニューラルネットワークパラメータを圧縮するが、これらのモデルをエッジデバイスにデプロイすることは依然として困難である。
これを解決するために、分数次微分計算とガウス関数を統合した分数次ガウスフィルタおよびプルーニング(FGFP)フレームワークを提案し、分数次ガウスフィルタ(FGF)を構築する。
分数次微分演算の計算複雑性を低減するため、分数次微分方程式を近似するために、Gr\"unwald-Letnikov分数微分を導入する。
FGFの各カーネルのパラメータ数は7に最小化されている。
フラクショナルガウスフィルタのアーキテクチャ以外にも、FGFPフレームワークには適応的非構造化プルーニング(Adaptive Unstructured Pruning, AUP)も組み込まれ、より高い圧縮比を実現している。
様々なアーキテクチャとベンチマークの実験により、FGFPフレームワークは、最近の精度と圧縮の手法よりも優れていることが示された。
CIFAR-10では、ResNet-20は1.52%の精度しか達成せず、モデルサイズを85.2%削減した。
ImageNet2012では、ResNet-50は1.63%の精度しか達成せず、モデルサイズを69.1%削減した。
関連論文リスト
- Filter Pruning for Efficient CNNs via Knowledge-driven Differential
Filter Sampler [103.97487121678276]
フィルタプルーニングは同時に計算を加速し、CNNのメモリオーバーヘッドを低減する。
本稿では,MFM(Masked Filter Modeling)フレームワークを用いた知識駆動型微分フィルタサンプリング(KDFS)を提案する。
論文 参考訳(メタデータ) (2023-07-01T02:28:41Z) - Quantized Neural Networks for Low-Precision Accumulation with Guaranteed
Overflow Avoidance [68.8204255655161]
本稿では,推定時のアキュムレータの精度を下げる際に,数値オーバーフローを回避する量子化学習アルゴリズムを提案する。
本手法は,浮動小数点点ベースラインに対するモデル精度を維持しつつ,アキュムレータの精度を低減できることを示す。
論文 参考訳(メタデータ) (2023-01-31T02:46:57Z) - Training Compact CNNs for Image Classification using Dynamic-coded
Filter Fusion [139.71852076031962]
動的符号化フィルタ融合(DCFF)と呼ばれる新しいフィルタプルーニング法を提案する。
我々は、効率的な画像分類のために、計算経済的および正規化のない方法でコンパクトなCNNを導出する。
我々のDCFFは、72.77MのFLOPと1.06Mのパラメータしか持たないコンパクトなVGGNet-16を導出し、トップ1の精度は93.47%に達した。
論文 参考訳(メタデータ) (2021-07-14T18:07:38Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Non-Parametric Adaptive Network Pruning [125.4414216272874]
アルゴリズム設計を簡略化するノンパラメトリックモデリングを導入。
顔認識コミュニティに触発されて,メッセージパッシングアルゴリズムを用いて,適応的な例示数を求める。
EPrunerは「重要」フィルタを決定する際にトレーニングデータへの依存を壊します。
論文 参考訳(メタデータ) (2021-01-20T06:18:38Z) - Holistic Filter Pruning for Efficient Deep Neural Networks [25.328005340524825]
HFP(Holistic Filter Pruning)は、実装が容易で正確なプルーニング率の特定が可能な、一般的なDNNトレーニングのための新しいアプローチである。
各種実験において,CIFAR-10 と ImageNet のトレーニングと最先端性能について考察した。
論文 参考訳(メタデータ) (2020-09-17T09:23:36Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z) - PFGDF: Pruning Filter via Gaussian Distribution Feature for Deep Neural
Networks Acceleration [10.660348939149943]
本稿では,深層ニューラルネットワークのデータ分散特性に基づく新しい圧縮・加速手法を提案する。
PFGDFは、スパース重み行列を処理するために特別な加速ライブラリを必要としないため、重量分散プルーニングと大きく異なる。
CIFAR-10では、PFGDFはVGG-16上の畳み込みフィルタを66.62%圧縮し、90%以上のパラメータを削減し、Huawei MATE 10では推論時間を83.73%高速化する。
論文 参考訳(メタデータ) (2020-06-23T13:03:21Z) - Cross-filter compression for CNN inference acceleration [4.324080238456531]
畳み込み処理において,$sim32times$メモリと$122times$メモリを節約できる新しいクロスフィルタ圧縮法を提案する。
CIFAR-10 と ImageNet のデータセットを用いて,Binary-Weight と XNOR-Net を別々に評価した。
論文 参考訳(メタデータ) (2020-05-18T19:06:14Z) - SPEC2: SPECtral SParsE CNN Accelerator on FPGAs [31.31419913907224]
我々は、スペクトルCNNを練習し、加速する最初の研究であるSPEC2を提案する。
スパースカーネルへの効率的なランダムアクセスが可能なFPGA上に最適化されたパイプラインアーキテクチャを設計する。
得られたアクセラレータは、VGG16の最先端FPGA実装と比較して最大24倍のスループットを実現している。
論文 参考訳(メタデータ) (2019-10-16T23:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。