論文の概要: Accuracy-Preserving CNN Pruning Method under Limited Data Availability
- arxiv url: http://arxiv.org/abs/2511.10861v1
- Date: Thu, 13 Nov 2025 23:52:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.370178
- Title: Accuracy-Preserving CNN Pruning Method under Limited Data Availability
- Title(参考訳): 限られたデータ利用率下でのCNNプルーニングの精度保存
- Authors: Daisuke Yasui, Toshitaka Matsuki, Hiroshi Sato,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は画像認識に広く使われ、様々な領域で成功している。
限られた計算資源を持つ環境において、特定のターゲットアプリケーションに対する事前訓練されたモデルを圧縮する研究がなされている。
本研究では,より優れたモデル精度を維持しつつ,高いプルーニング率を達成するプルーニング法を提案する。
- 参考スコア(独自算出の注目度): 7.647276696906605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks (CNNs) are widely used in image recognition and have succeeded in various domains. CNN models have become larger-scale to improve accuracy and generalization performance. Research has been conducted on compressing pre-trained models for specific target applications in environments with limited computing resources. Among model compression techniques, methods using Layer-wise Relevance Propagation (LRP), an explainable AI technique, have shown promise by achieving high pruning rates while preserving accuracy, even without fine-tuning. Because these methods do not require fine-tuning, they are suited to scenarios with limited data. However, existing LRP-based pruning approaches still suffer from significant accuracy degradation, limiting their practical usability. This study proposes a pruning method that achieves a higher pruning rate while preserving better model accuracy. Our approach to pruning with a small amount of data has achieved pruning that preserves accuracy better than existing methods.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は画像認識に広く使われ、様々な領域で成功している。
CNNモデルは精度と一般化性能を向上させるために大規模化されている。
限られた計算資源を持つ環境において、特定のターゲットアプリケーションに対する事前訓練されたモデルを圧縮する研究がなされている。
モデル圧縮技術の中で、説明可能なAI技術であるLayer-wise Relevance Propagation (LRP)を用いた手法は、微調整をすることなく精度を保ちながら高いプルーニング率を達成することで、有望であることが示されている。
これらの手法は微調整を必要としないため、限られたデータを持つシナリオに適している。
しかし、既存のLRPベースのプルーニングアプローチは依然としてかなりの精度の劣化に悩まされており、実用性は制限されている。
本研究では,より優れたモデル精度を維持しつつ,高いプルーニング率を達成するプルーニング法を提案する。
少ないデータでプルーニングを行うアプローチは,既存の方法よりも精度がよいプルーニングを実現している。
関連論文リスト
- Effective Layer Pruning Through Similarity Metric Perspective [0.0]
ディープニューラルネットワークは、認知タスクを解決する機械学習において、主要なパラダイムとなっている。
これらのモデルから構造を抽出することは、ネットワークの複雑さを減らすための簡単なアプローチである。
層プルーニングは、しばしば高い圧縮速度でネットワーク予測能力(すなわち精度)を損なう。
この研究は、プルーニング手法によって追求されるすべての基礎特性を満たす効果的なレイヤ・プルーニング戦略を導入する。
論文 参考訳(メタデータ) (2024-05-27T11:54:51Z) - PUMA: margin-based data pruning [51.12154122266251]
モデル分類境界からの距離(すなわちマージン)に基づいて、いくつかのトレーニングサンプルを除去するデータプルーニングに焦点を当てる。
我々は,DeepFoolを用いてマージンを算出する新しいデータプルーニング戦略PUMAを提案する。
PUMAは,現状の最先端手法であるロバスト性の上に利用でき,既存のデータプルーニング戦略と異なり,モデル性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2024-05-10T08:02:20Z) - Robust Neural Pruning with Gradient Sampling Optimization for Residual Neural Networks [0.0]
この研究は、勾配サンプリング最適化技術、特にStochGradAdamをニューラルネットワークのプルーニングプロセスに統合するパイオニアとなる。
我々の主な目的は、資源制約のあるシナリオにおいて重要なプルーニングニューラルネットワークモデルの精度を維持するという重要な課題に対処することである。
論文 参考訳(メタデータ) (2023-12-26T12:19:22Z) - Gradient-Free Structured Pruning with Unlabeled Data [57.999191898036706]
ラベルのないデータのみを使用する勾配のない構造化プルーニングフレームワークを提案する。
元々のFLOPカウントの最大40%は、考慮されたすべてのタスクで4%未満の精度で削減できる。
論文 参考訳(メタデータ) (2023-03-07T19:12:31Z) - Supervised Robustness-preserving Data-free Neural Network Pruning [9.430751952604338]
データフリーコンテキストにおけるニューラルネットワークのプルーニングについて検討する。
本研究では,プルーニングプロセスのガイドとなるロバストネス関連メトリクスを用いたプルーニング手法を提案する。
提案手法はPythonプログラムとして実装され,多様なニューラルネットワークモデルに関する一連の実験により評価される。
論文 参考訳(メタデータ) (2022-04-02T07:09:17Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。