論文の概要: Evaluating the Impact of Compression Techniques on the Robustness of CNNs under Natural Corruptions
- arxiv url: http://arxiv.org/abs/2512.24971v1
- Date: Wed, 31 Dec 2025 17:00:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.716753
- Title: Evaluating the Impact of Compression Techniques on the Robustness of CNNs under Natural Corruptions
- Title(参考訳): 自然破壊下におけるCNNのロバスト性に及ぼす圧縮技術の影響評価
- Authors: Itallo Patrick Castro Alves Da Silva, Emanuel Adler Medeiros Pereira, Erick de Andrade Barboza, Baldoino Fonseca dos Santos Neto, Marcio de Medeiros Ribeiro,
- Abstract要約: 圧縮されたディープラーニングモデルは、リソース制約のあるデバイスにコンピュータビジョンシステムのデプロイに不可欠である。
コンピュータビジョンシステムを検証する上で,ロバスト性評価を検討することが重要である。
本稿では,圧縮技術に関する総合的な評価を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compressed deep learning models are crucial for deploying computer vision systems on resource-constrained devices. However, model compression may affect robustness, especially under natural corruption. Therefore, it is important to consider robustness evaluation while validating computer vision systems. This paper presents a comprehensive evaluation of compression techniques - quantization, pruning, and weight clustering applied individually and in combination to convolutional neural networks (ResNet-50, VGG-19, and MobileNetV2). Using the CIFAR-10-C and CIFAR 100-C datasets, we analyze the trade-offs between robustness, accuracy, and compression ratio. Our results show that certain compression strategies not only preserve but can also improve robustness, particularly on networks with more complex architectures. Utilizing multiobjective assessment, we determine the best configurations, showing that customized technique combinations produce beneficial multi-objective results. This study provides insights into selecting compression methods for robust and efficient deployment of models in corrupted real-world environments.
- Abstract(参考訳): 圧縮されたディープラーニングモデルは、リソース制約のあるデバイスにコンピュータビジョンシステムのデプロイに不可欠である。
しかし、モデル圧縮は、特に自然破壊下では、堅牢性に影響を与える可能性がある。
そのため,コンピュータビジョンシステムを検証する上で,ロバスト性評価を検討することが重要である。
本稿では、畳み込みニューラルネットワーク(ResNet-50、VGG-19、MobileNetV2)に個別に、および組み合わせて適用された量子化、プルーニング、および重みクラスタリングという圧縮手法の総合的な評価を行う。
CIFAR-10-CデータセットとCIFAR 100-Cデータセットを用いて、ロバスト性、精度、圧縮比のトレードオフを分析する。
以上の結果から,より複雑なアーキテクチャを持つネットワークにおいて,特定の圧縮戦略が保存されるだけでなく,堅牢性も向上する可能性が示唆された。
多目的評価を利用することで、最適な構成を判断し、カスタマイズされたテクニックの組み合わせが有益な多目的結果をもたらすことを示す。
本研究は, 破損した実環境におけるモデルの堅牢かつ効率的な配置のための圧縮方法の選択に関する知見を提供する。
関連論文リスト
- Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - Dynamical Low-Rank Compression of Neural Networks with Robustness under Adversarial Attacks [2.383225848287317]
本稿では,各層における低ランクコアの条件数を制御する新しいスペクトル正規化器によって強化された低ランクトレーニング手法を提案する。
提案手法は, クリーンデータに対する精度を犠牲にすることなく, 圧縮モデルの対向摂動に対する感度を緩和する。
論文 参考訳(メタデータ) (2025-05-12T19:46:29Z) - Learning Accurate Performance Predictors for Ultrafast Automated Model
Compression [86.22294249097203]
フレキシブルネットワーク展開のための超高速自動モデル圧縮フレームワークSeerNetを提案する。
本手法は,探索コストを大幅に削減した競合精度・複雑度トレードオフを実現する。
論文 参考訳(メタデータ) (2023-04-13T10:52:49Z) - Towards Robust Neural Image Compression: Adversarial Attack and Model
Finetuning [30.36695754075178]
ディープニューラルネットワークに基づく画像圧縮は広く研究されている。
そこで,本研究では,未知の逆方向の摂動を原画像に注入することにより,一般的な画像圧縮モデルの堅牢性を検討する。
幾何的自己アンサンブルに基づく事前処理や敵の訓練を含む様々な防衛戦略を、敵の攻撃に対して検討し、モデルの堅牢性を改善する。
論文 参考訳(メタデータ) (2021-12-16T08:28:26Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Compact CNN Structure Learning by Knowledge Distillation [34.36242082055978]
知識蒸留とカスタマイズ可能なブロックワイズ最適化を活用し、軽量なCNN構造を学習するフレームワークを提案する。
提案手法は,予測精度の向上を図りながら,アートネットワーク圧縮の状態を再現する。
特に,すでにコンパクトなネットワークであるMobileNet_v2では,モデル圧縮が最大2倍,モデル圧縮が5.2倍向上する。
論文 参考訳(メタデータ) (2021-04-19T10:34:22Z) - Structured Sparsification with Joint Optimization of Group Convolution
and Channel Shuffle [117.95823660228537]
本稿では,効率的なネットワーク圧縮のための新しい構造空間分割法を提案する。
提案手法は, 畳み込み重みに対する構造的疎度を自動的に誘導する。
また,学習可能なチャネルシャッフル機構によるグループ間通信の問題にも対処する。
論文 参考訳(メタデータ) (2020-02-19T12:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。