論文の概要: Verifying Local Robustness of Pruned Safety-Critical Networks
- arxiv url: http://arxiv.org/abs/2601.13303v1
- Date: Mon, 19 Jan 2026 18:59:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.016915
- Title: Verifying Local Robustness of Pruned Safety-Critical Networks
- Title(参考訳): Pruned Safety-Critical Networks の局所ロバスト性検証
- Authors: Minh Le, Phuong Cao,
- Abstract要約: 本稿では,プルーニングが,異なる比率の形式的局所ロバスト性証明に与える影響について検討する。
最先端の$,$-CROWN検証器を用いて、NASA JPL Mars Frost識別データセット上で、MNIST上の様々なプルーニング比率のResNet4モデルを評価した。
- 参考スコア(独自算出の注目度): 2.272484835650793
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Formal verification of Deep Neural Networks (DNNs) is essential for safety-critical applications, ranging from surgical robotics to NASA JPL autonomous systems. However, the computational cost of verifying large-scale models remains a significant barrier to adoption. This paper investigates the impact of pruning on formal local robustness certificates with different ratios. Using the state-of-the-art $α,β$-CROWN verifier, we evaluate ResNet4 models across varying pruning ratios on MNIST and, more importantly, on the NASA JPL Mars Frost Identification datasets. Our findings demonstrate a non-linear relationship: light pruning (40%) in MNIST and heavy pruning (70%-90%) in JPL improve verifiability, allowing models to outperform unpruned baselines in proven $L_\infty$ robustness properties. This suggests that reduced connectivity simplifies the search space for formal solvers and that the optimal pruning ratio varies significantly between datasets. This research highlights the complex nature of model compression, offering critical insights into selecting the optimal pruning ratio for deploying efficient, yet formally verified, DNNs in high-stakes environments where reliability is non-negotiable.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の形式的検証は、外科ロボティクスからNASA JPL自律システムまで、安全クリティカルな応用に不可欠である。
しかし、大規模モデルの検証に要する計算コストは、依然として採用にとって大きな障壁である。
本稿では,プルーニングが,異なる比率の形式的局所ロバスト性証明に与える影響について検討する。
最先端の$α,β$-CROWN検証器を用いて、MNISTとNASA JPLマーズフロスト識別データセット上の様々なプルーニング比のResNet4モデルを評価した。
以上の結果から,MNIST の光プーニング (40%) と JPL の重プルーニング (70%-90%) は妥当性の向上を図った。
このことから,接続性の低下はフォーマルなソルバの探索空間を単純化し,最適プルーニング比がデータセット間で大きく異なることが示唆された。
本研究は, モデル圧縮の複雑な性質を強調し, 信頼性が損なわれない高度環境において, 効率的かつ公式なDNNを展開するための最適プルーニング比の選択に関する重要な洞察を提供する。
関連論文リスト
- Consolidation or Adaptation? PRISM: Disentangling SFT and RL Data via Gradient Concentration [56.074760766965085]
PRISMは、モデルの既存の知識との認知的対立度に基づいてデータを調停する動的認識フレームワークを実現する。
この結果から,内部最適化方式に基づくデータ分離が,スケーラブルでロバストなエージェントアライメントに不可欠であることが示唆された。
論文 参考訳(メタデータ) (2026-01-12T05:43:20Z) - NIRVANA: Structured pruning reimagined for large language models compression [50.651730342011014]
直近のゼロショット保存精度と頑健な微調整のバランスをとるために, NIRVANAを導入した。
構造化プルーニングによって引き起こされる固有の課題にさらに対処するため、NIRVANAは層やモジュール間の適応的な空間割当機構を取り入れている。
Llama3, Qwen, T5モデルで行った実験では、NIRVANAは等価な空間制約の下で既存の構造化プルーニング法よりも優れていた。
論文 参考訳(メタデータ) (2025-09-17T17:59:00Z) - Compact Bayesian Neural Networks via pruned MCMC sampling [0.16777183511743468]
ベイズニューラルネットワーク(BNN)は、モデル予測において堅牢な不確実性定量化を提供するが、それらのトレーニングは重要な計算課題を示す。
本研究では,MCMCサンプリングとネットワークプルーニングを併用して,コンパクトな確率モデルを得るという課題に対処する。
モデルトレーニングと一般化性能を保ちながら, 後続分布による不確実性を推定する能力は, コンパクトBNNが維持可能であることを保証する。
論文 参考訳(メタデータ) (2025-01-12T22:48:04Z) - Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - Exploiting Distribution Constraints for Scalable and Efficient Image Retrieval [1.6874375111244329]
最先端の画像検索システムは、データセットごとに特定のニューラルネットワークをトレーニングする。
オフザシェルフのファンデーションモデルは、データセット固有のモデルに匹敵するパフォーマンスを達成するには不足している。
本稿では,基本モデルの性能を著しく向上するAE-SVC(Strong Variance Constraints)を用いたオートエンコーダを提案する。
論文 参考訳(メタデータ) (2024-10-09T16:05:16Z) - Linearizing Models for Efficient yet Robust Private Inference [8.547509873799994]
本稿では,RLNetを提案する。RLNetは,高遅延ReLU演算の低減による遅延改善を実現する,堅牢な線形化ネットワークのクラスである。
RLNetは、全ReLUモデルに近い精度で最大11.14倍のReLUで、クリーン、自然摂動、勾配に基づく摂動画像が得られることを示す。
論文 参考訳(メタデータ) (2024-02-08T10:01:29Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Toward fast and accurate human pose estimation via soft-gated skip
connections [97.06882200076096]
本稿では,高精度かつ高効率な人間のポーズ推定について述べる。
我々は、最先端技術よりも精度と効率を両立させる文脈において、この設計選択を再分析する。
本モデルでは,MPII と LSP のデータセットから最先端の結果が得られる。
論文 参考訳(メタデータ) (2020-02-25T18:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。