論文の概要: Explainability-Inspired Layer-Wise Pruning of Deep Neural Networks for Efficient Object Detection
- arxiv url: http://arxiv.org/abs/2602.14040v1
- Date: Sun, 15 Feb 2026 08:07:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.618526
- Title: Explainability-Inspired Layer-Wise Pruning of Deep Neural Networks for Efficient Object Detection
- Title(参考訳): 高速物体検出のためのディープニューラルネットワークの説明可能性を考慮したレイヤワイズプルーニング
- Authors: Abhinav Shukla, Nachiket Tapas,
- Abstract要約: 本稿では、効率的なオブジェクト検出に適した説明可能性に着想を得た、レイヤワイドプルーニングフレームワークを提案する。
ResNet-50, MobileNetV2, ShuffleNetV2, Faster R-CNN, RetinaNet, YOLOv8など,さまざまなオブジェクト検出アーキテクチャの実験を行った。
提案手法は,L1-ノルム法と比較して,異なる層を最も重要視している。
- 参考スコア(独自算出の注目度): 3.317338104573978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have achieved remarkable success in object detection tasks, but their increasing complexity poses significant challenges for deployment on resource-constrained platforms. While model compression techniques such as pruning have emerged as essential tools, traditional magnitude-based pruning methods do not necessarily align with the true functional contribution of network components to task-specific performance. In this work, we present an explainability-inspired, layer-wise pruning framework tailored for efficient object detection. Our approach leverages a SHAP-inspired gradient--activation attribution to estimate layer importance, providing a data-driven proxy for functional contribution rather than relying solely on static weight magnitudes. We conduct comprehensive experiments across diverse object detection architectures, including ResNet-50, MobileNetV2, ShuffleNetV2, Faster R-CNN, RetinaNet, and YOLOv8, evaluating performance on the Microsoft COCO 2017 validation set. The results show that the proposed attribution-inspired pruning consistently identifies different layers as least important compared to L1-norm-based methods, leading to improved accuracy--efficiency trade-offs. Notably, for ShuffleNetV2, our method yields a 10\% empirical increase in inference speed, whereas L1-pruning degrades performance by 13.7\%. For RetinaNet, the proposed approach preserves the baseline mAP (0.151) with negligible impact on inference speed, while L1-pruning incurs a 1.3\% mAP drop for a 6.2\% speed increase. These findings highlight the importance of data-driven layer importance assessment and demonstrate that explainability-inspired compression offers a principled direction for deploying deep neural networks on edge and resource-constrained platforms while preserving both performance and interpretability.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、オブジェクト検出タスクにおいて目覚ましい成功を収めていますが、その複雑さの増加は、リソース制約のあるプラットフォームへのデプロイにおいて大きな課題を引き起こします。
プルーニングのようなモデル圧縮技術が必須のツールとして登場したが、従来のマグニチュードベースのプルーニング手法は、タスク固有のパフォーマンスに対するネットワークコンポーネントの真の機能的貢献と必ずしも一致しない。
本研究では,効率的なオブジェクト検出に適した,説明可能性に着想を得たレイヤワイドプルーニングフレームワークを提案する。
提案手法では, SHAPにインスパイアされたグラデーション・アクティベーションの属性を重み付けに利用し, 静的な重み付けのみに頼るのではなく, 関数型コントリビューションのためのデータ駆動プロキシを提供する。
我々は、ResNet-50、MobileNetV2、ShuffleNetV2、Faster R-CNN、RetinaNet、YOLOv8を含むさまざまなオブジェクト検出アーキテクチャの包括的な実験を行い、Microsoft COCO 2017バリデーションセットのパフォーマンスを評価した。
その結果, 提案手法はL1ノルム法と比較して, 異なる層を最重要と認識し, 精度・効率のトレードオフが向上した。
特に、ShuffleNetV2では、L1プルーニングが13.7%低下するのに対して、提案手法は10\%の推論速度向上をもたらす。
RetinaNetの場合、提案手法は推論速度に無視できる影響でベースラインのmAP(0.151)を保ち、L1プルーニングでは1.3\%のmAP低下が6.2\%の速度増加をもたらす。
これらの知見は、データ駆動層重要度評価の重要性を強調し、説明可能性にインスパイアされた圧縮が、エッジとリソース制約のあるプラットフォームにディープニューラルネットワークをデプロイする上で、パフォーマンスと解釈可能性の両方を保ちながら、原則化された方向を提供することを示した。
関連論文リスト
- Towards Extreme Pruning of LLMs with Plug-and-Play Mixed Sparsity [32.668409666483626]
既存のプルーニング手法は主に、プルーニングをガイドするネットワークコンポーネントの重要性を測定するためにメトリクスを設計することに焦点を当てている。
本稿では,FIM(Fiher Information Matrix)のトレースに基づく効率的な手法を提案する。
そこで本研究では,異なる層に対する最適スパシティレベルを決定するために,プルーニング指向の進化的アルゴリズム(EA)を用いたMixed Sparsity Pruning (MSP)を提案する。
論文 参考訳(メタデータ) (2025-03-14T08:05:49Z) - LeYOLO, New Embedded Architecture for Object Detection [0.0]
MSCOCOをベース検証セットとして用いたオブジェクト検出モデルに2つの重要な貢献点を紹介する。
まず,SSDLiteに匹敵する推論速度を維持する汎用検出フレームワークであるLeNeckを提案する。
第2に, YOLOアーキテクチャにおける計算効率の向上を目的とした, 効率的なオブジェクト検出モデルであるLeYOLOを提案する。
論文 参考訳(メタデータ) (2024-06-20T12:08:24Z) - Accelerating Deep Neural Networks via Semi-Structured Activation
Sparsity [0.0]
ネットワークの機能マップにスパシティを爆発させることは、推論のレイテンシを低減する方法の1つです。
そこで本研究では,セミ構造化されたアクティベーション空間を小さなランタイム修正によって活用する手法を提案する。
当社のアプローチでは,ImageNetデータセット上のResNet18モデルに対して,最小精度が1.1%の1.25倍の速度向上を実現している。
論文 参考訳(メタデータ) (2023-09-12T22:28:53Z) - Efficient Joint Optimization of Layer-Adaptive Weight Pruning in Deep
Neural Networks [48.089501687522954]
ディープニューラルネットワーク(DNN)のための新しい層適応型重み決定手法を提案する。
我々のアプローチは、レイヤ適応型プルーニングスキームを設計するためのすべてのレイヤの集団的影響を考慮に入れている。
我々の実験は、ImageNetとCIFAR-10データセット上の既存の手法よりも、我々のアプローチの方が優れていることを示す。
論文 参考訳(メタデータ) (2023-08-21T03:22:47Z) - WeightMom: Learning Sparse Networks using Iterative Momentum-based
pruning [0.0]
本稿では,前回の繰り返しの運動量に基づいて徐々に重みを刈り取る,重みに基づくプルーニング手法を提案する。
我々は,CIFAR-10やCIFAR-100といった画像分類データセットを用いて,AlexNet,VGG16,ResNet50などのネットワークに対するアプローチを評価する。
論文 参考訳(メタデータ) (2022-08-11T07:13:59Z) - CondenseNet V2: Sparse Feature Reactivation for Deep Networks [87.38447745642479]
高密度接続によるディープネットワークの機能再利用は、高い計算効率を達成する効果的な方法である。
スパース機能再活性化(SFR)と呼ばれる代替アプローチを提案し、再利用機能の有用性を積極的に高めることを目指しています。
提案手法は画像分類(ImageNet, CIFAR)とオブジェクト検出(MSCOCO)において,理論的効率と実用的速度の両面で有望な性能を達成できることを示す。
論文 参考訳(メタデータ) (2021-04-09T14:12:43Z) - BiPointNet: Binary Neural Network for Point Clouds [73.07852523426224]
BiPointNetは、ポイントクラウド上の効率的なディープラーニングのための最初のモデルバイナライズアプローチである。
BiPointNetは、実世界のリソース制約のあるデバイスで14.7倍のスピードアップと18.9倍のストレージを提供する。
論文 参考訳(メタデータ) (2020-10-12T07:54:51Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - Resolution Adaptive Networks for Efficient Inference [53.04907454606711]
本稿では,低分解能表現が「容易」な入力を分類するのに十分である,という直感に触発された新しいレゾリューション適応ネットワーク(RANet)を提案する。
RANetでは、入力画像はまず、低解像度表現を効率的に抽出する軽量サブネットワークにルーティングされる。
ネットワーク内の高解像度パスは、"ハード"サンプルを認識する能力を維持している。
論文 参考訳(メタデータ) (2020-03-16T16:54:36Z) - ReActNet: Towards Precise Binary Neural Network with Generalized
Activation Functions [76.05981545084738]
本稿では,新たな計算コストを伴わずに,実数値ネットワークからの精度ギャップを埋めるため,バイナリネットワークを強化するためのいくつかのアイデアを提案する。
まず,パラメータフリーのショートカットを用いて,コンパクトな実数値ネットワークを修正・バイナライズすることで,ベースラインネットワークを構築する。
提案したReActNetはすべての最先端技術よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-03-07T02:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。