論文の概要: SimCert: Probabilistic Certification for Behavioral Similarity in Deep Neural Network Compression
- arxiv url: http://arxiv.org/abs/2603.14818v1
- Date: Mon, 16 Mar 2026 04:44:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.053607
- Title: SimCert: Probabilistic Certification for Behavioral Similarity in Deep Neural Network Compression
- Title(参考訳): SimCert: ディープニューラルネットワーク圧縮における行動類似性の確率的証明
- Authors: Jingyang Li, Fu Song, Guoqiang Li,
- Abstract要約: 圧縮ニューラルネットワークの挙動類似性を検証するための確率的認証フレームワークであるSimCertを提案する。
本フレームワークの特徴は,(1)量子化とプルーニングの両方をサポートするデュアルネットワークのシンボル伝搬法,(2)ベルンシュタインの不等式による安全証明書の厳格化,(3)自動検証ツールチェーンである。
- 参考スコア(独自算出の注目度): 10.808953992870954
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deploying Deep Neural Networks (DNNs) on resource-constrained embedded systems requires aggressive model compression techniques like quantization and pruning. However, ensuring that the compressed model preserves the behavioral fidelity of the original design is a critical challenge in the safety-critical system design flow. Existing verification methods often lack scalability or fail to handle the architectural heterogeneity introduced by pruning. In this work, we propose SimCert, a probabilistic certification framework for verifying the behavioral similarity of compressed neural networks. Unlike worst-case analysis, SimCert provides quantitative safety guarantees with adjustable confidence levels. Our framework features: (1) A dual-network symbolic propagation method supporting both quantization and pruning; (2) A variance-aware bounding technique using Bernstein's inequality to tighten safety certificates; and (3) An automated verification toolchain. Experimental results on ACAS Xu and computer vision benchmarks demonstrate that SimCert outperforms state-of-the-art baselines.
- Abstract(参考訳): リソース制約のある組み込みシステムにディープニューラルネットワーク(DNN)をデプロイするには、量子化やプルーニングといった積極的なモデル圧縮技術が必要である。
しかし、圧縮されたモデルが元の設計の振舞いの忠実さを保つことは、安全クリティカルなシステム設計フローにおいて重要な課題である。
既存の検証方法はスケーラビリティに欠けたり、プルーニングによってもたらされるアーキテクチャ上の不均一性に対処できない場合が多い。
本研究では,圧縮ニューラルネットワークの挙動類似性を検証するための確率的認証フレームワークであるSimCertを提案する。
最悪のケース分析とは異なり、SimCertは、調整可能な信頼性レベルを備えた量的安全保証を提供する。
本フレームワークの特徴は,(1)量子化とプルーニングの両方をサポートするデュアルネットワークのシンボル伝搬法,(2)ベルンシュタインの不等式による安全証明書の厳格化,(3)自動検証ツールチェーンである。
ACAS Xuとコンピュータビジョンベンチマークの実験結果は、SimCertが最先端のベースラインより優れていることを示している。
関連論文リスト
- Exact and Asymptotically Complete Robust Verifications of Neural Networks via Quantum Optimization [9.728049285140736]
本稿では、ディープニューラルネットワークの堅牢な検証のための2つの量子最適化モデルを提案する。
ベンチマークの実験では高い認証精度を示し、量子最適化がロバスト性を保証するための原則的プリミティブとして機能できることが示されている。
論文 参考訳(メタデータ) (2026-02-28T02:05:02Z) - Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - Bridging Symmetry and Robustness: On the Role of Equivariance in Enhancing Adversarial Robustness [9.013874391203453]
敵対的な例では、知覚不能な入力摂動に対する感度を利用して、ディープニューラルネットワークの重大な脆弱性を明らかにしている。
本研究では,群-同変畳み込みを組込み,対向ロバスト性に対するアーキテクチャ的アプローチについて検討する。
これらの層は、モデル行動と入力空間の構造化変換を整合させる対称性の先行を符号化し、よりスムーズな決定境界を促進する。
論文 参考訳(メタデータ) (2025-10-17T19:26:58Z) - Advancing Neural Network Verification through Hierarchical Safety Abstract Interpretation [52.626086874715284]
我々は、安全でない出力の階層構造を検証する抽象的DNN検証と呼ばれる新しい問題定式化を導入する。
出力到達可能な集合に関する抽象的解釈と推論を活用することにより,形式的検証プロセスにおいて,複数の安全性レベルを評価することができる。
我々の貢献には、新しい抽象的安全性の定式化と既存のアプローチとの関係を理論的に探求することが含まれる。
論文 参考訳(メタデータ) (2025-05-08T13:29:46Z) - You Only Train Once: A Unified Framework for Both Full-Reference and No-Reference Image Quality Assessment [45.62136459502005]
本稿では,完全な参照 (FR) と非参照 (NR) IQA を行うネットワークを提案する。
まず、入力画像から多レベル特徴を抽出するためにエンコーダを用いる。
FRおよびNR入力のユニバーサルアダプタとして階層的注意(HA)モジュールを提案する。
エンコーダの浅い層と深い層との間の特徴相関を調べるために, セマンティック・ディストーション・アウェア (SDA) モジュールを提案する。
論文 参考訳(メタデータ) (2023-10-14T11:03:04Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Certifying Out-of-Domain Generalization for Blackbox Functions [20.997611019445657]
本稿では,2つの分布の平均距離と分散距離を限定した新しい認証フレームワークを提案する。
我々は、ImageNetを含む複数のデータセットに対して、認証手法を実験的に検証した。
論文 参考訳(メタデータ) (2022-02-03T16:47:50Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。