論文の概要: Bonsai: A Framework for Convolutional Neural Network Acceleration Using Criterion-Based Pruning
- arxiv url: http://arxiv.org/abs/2602.17145v1
- Date: Thu, 19 Feb 2026 07:46:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.805138
- Title: Bonsai: A Framework for Convolutional Neural Network Acceleration Using Criterion-Based Pruning
- Title(参考訳): Bonsai: 基準ベースプルーニングを用いた畳み込みニューラルネットワーク高速化フレームワーク
- Authors: Joseph Bingham, Sam Helmich,
- Abstract要約: CNNのためのクレーターベースのプルーニングソリューションであるComputeを導入する。
反復刈り出しの迅速かつ効果的なフレームワークであることを実証する。
これらの基準関数のキャパシティと,VGGモデルに基づくフレームワークについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the need for more accurate and powerful Convolutional Neural Networks (CNNs) increases, so too does the size, execution time, memory footprint, and power consumption. To overcome this, solutions such as pruning have been proposed with their own metrics and methodologies, or criteria, for how weights should be removed. These solutions do not share a common implementation and are difficult to implement and compare. In this work, we introduce Combine, a criterion- based pruning solution and demonstrate that it is fast and effective framework for iterative pruning, demonstrate that criterion have differing effects on different models, create a standard language for comparing criterion functions, and propose a few novel criterion functions. We show the capacity of these criterion functions and the framework on VGG inspired models, pruning up to 79\% of filters while retaining or improving accuracy, and reducing the computations needed by the network by up to 68\%.
- Abstract(参考訳): より正確で強力な畳み込みニューラルネットワーク(CNN)の必要性が高まるにつれて、サイズ、実行時間、メモリフットプリント、消費電力も増加する。
これを解決するために、プルーニングのようなソリューションは、どのように重みを取り除くべきかのメトリクスや方法論、あるいは基準によって提案されている。
これらのソリューションは共通の実装を共有しておらず、実装や比較が難しい。
本研究では, クレーター型プルーニングソリューションであるコンバインを導入し, 反復プルーニングの迅速かつ効果的なフレームワークであることを示すとともに, 異なるモデルに異なる効果があることを示すとともに, クレーター関数を比較するための標準言語を作成し, いくつかの新しいクレーター関数を提案する。
これらの基準関数とVGGインスパイアされたモデル上でのフレームワークの能力を示し、精度を保ったり改善したりしながら、フィルタの最大99%をプルーニングし、ネットワークが必要とする計算を最大68%削減する。
関連論文リスト
- Application-Specific Component-Aware Structured Pruning of Deep Neural Networks via Soft Coefficient Optimization [1.6874375111244326]
アプリケーション固有のパフォーマンス特性が圧縮中に確実に保持されることは、依然として重要です。
構造的コヒーレントな要素群が取り除かれた構造化プルーニングでは、従来の重要な指標はこれらの重要な性能特性を維持できないことが多い。
本稿では,モデルのサイズを縮小するだけでなく,アプリケーション固有の性能制約を明示的に考慮した重要度測定フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-20T09:50:04Z) - Structure-Aware Automatic Channel Pruning by Searching with Graph Embedding [28.03880549472142]
チャネルプルーニングはディープニューラルネットワークの計算オーバーヘッドを低減するための強力な技術である。
ネットワークトポロジをモデル化し,各チャネルのグローバルな重要性を学習するための,構造対応自動チャネルプルーニング(SACP)フレームワークを提案する。
SACPは圧縮効率と精度保持の競争力において最先端のプルーニング法より優れている。
論文 参考訳(メタデータ) (2025-06-13T05:05:35Z) - Less is KEN: a Universal and Simple Non-Parametric Pruning Algorithm for Large Language Models [1.5807079236265718]
KENはカーネル密度推定(KDE)に基づく単純で普遍的で非構造化プルーニングアルゴリズムである
Kenは、最適化されたトランスフォーマーを構築することを目的としており、最も重要なパラメータを選択的に保存し、他のパラメータをトレーニング前の状態に復元する。
Kenは、元の未実行バージョンと同等かそれ以上のパフォーマンスを達成し、パラメータの最小25%の削減を実現している。
論文 参考訳(メタデータ) (2024-02-05T16:11:43Z) - PRUNIX: Non-Ideality Aware Convolutional Neural Network Pruning for
Memristive Accelerators [0.36832029288386126]
PRUNIXは畳み込みニューラルネットワークのトレーニングと解析のためのフレームワークである。
メムリスタクロスバーベースの加速器への展開が提案されている。
論文 参考訳(メタデータ) (2022-02-03T18:32:03Z) - Learning from Images: Proactive Caching with Parallel Convolutional
Neural Networks [94.85780721466816]
本稿では,プロアクティブキャッシングのための新しいフレームワークを提案する。
モデルベースの最適化とデータ駆動技術を組み合わせて、最適化問題をグレースケールのイメージに変換する。
数値計算の結果,提案手法は71.6%の計算時間を0.8%のコストで削減できることがわかった。
論文 参考訳(メタデータ) (2021-08-15T21:32:47Z) - Blending Pruning Criteria for Convolutional Neural Networks [13.259106518678474]
近年のネットワークプルーニングは,モデルの冗長性を低減するための有効な手法である。
ある基準に従って1つのフィルタが重要になりうるが、別の基準によっては不要であり、これは各基準が包括的「重要度」の部分的なビューであることを示している。
本稿では,既存のフィルタプルーニング基準を統合するための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-07-11T12:34:19Z) - Rate Distortion Characteristic Modeling for Neural Image Compression [59.25700168404325]
エンドツーエンドの最適化機能は、ニューラルイメージ圧縮(NIC)の優れた損失圧縮性能を提供する。
異なるモデルは、R-D空間の異なる点に到達するために訓練される必要がある。
深層ネットワークと統計モデルを用いてNICのR-D挙動を記述するために,本質的な数学的関数の定式化に努めている。
論文 参考訳(メタデータ) (2021-06-24T12:23:05Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z) - Dependency Aware Filter Pruning [74.69495455411987]
重要でないフィルタを割ることは、推論コストを軽減するための効率的な方法である。
以前の作業は、その重み基準やそれに対応するバッチノームスケーリング要因に従ってフィルタをプルークする。
所望の空間性を達成するために,空間性誘導正規化を動的に制御する機構を提案する。
論文 参考訳(メタデータ) (2020-05-06T07:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。