論文の概要: NNrepair: Constraint-based Repair of Neural Network Classifiers
- arxiv url: http://arxiv.org/abs/2103.12535v1
- Date: Tue, 23 Mar 2021 13:44:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 14:08:26.483171
- Title: NNrepair: Constraint-based Repair of Neural Network Classifiers
- Title(参考訳): NNrepair: ニューラルネットワーク分類器の制約に基づく修復
- Authors: Muhammad Usman, Divya Gopinath, Youcheng Sun, Yannic Noller and Corina
Pasareanu
- Abstract要約: NNrepairはニューラルネットワークの分類器を修復するための制約ベースの技術である。
NNrepairはまず、障害のあるネットワークパラメータを見つけるために障害ローカリゼーションを使用します。
その後、制約解決を使用して修復を行い、パラメータに小さな修正を加えて欠陥を修復する。
- 参考スコア(独自算出の注目度): 10.129874872336762
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present NNrepair, a constraint-based technique for repairing neural
network classifiers. The technique aims to fix the logic of the network at an
intermediate layer or at the last layer. NNrepair first uses fault localization
to find potentially faulty network parameters (such as the weights) and then
performs repair using constraint solving to apply small modifications to the
parameters to remedy the defects. We present novel strategies to enable precise
yet efficient repair such as inferring correctness specifications to act as
oracles for intermediate layer repair, and generation of experts for each
class. We demonstrate the technique in the context of three different
scenarios: (1) Improving the overall accuracy of a model, (2) Fixing security
vulnerabilities caused by poisoning of training data and (3) Improving the
robustness of the network against adversarial attacks. Our evaluation on MNIST
and CIFAR-10 models shows that NNrepair can improve the accuracy by 45.56
percentage points on poisoned data and 10.40 percentage points on adversarial
data. NNrepair also provides small improvement in the overall accuracy of
models, without requiring new data or re-training.
- Abstract(参考訳): 本稿では,ニューラルネットワーク分類器の修復手法であるNNrepairを提案する。
この技術は、中間層または最終層でネットワークのロジックを修正することを目的としている。
NNrepairはまず障害のローカライゼーションを使用して、潜在的な障害のあるネットワークパラメータ(重み付けなど)を見つけ、続いて制約解決を使用して修復を行い、パラメータに小さな修正を加えて欠陥を修復する。
本稿では,中間層修復のオーラクルとして機能する正当性仕様の推測や,各クラスの専門家の生成など,正確かつ効率的な修復を可能にする新しい手法を提案する。
本手法は,(1)モデルの全体的な精度の向上,(2)訓練データの汚染によるセキュリティ上の脆弱性の修正,(3)敵攻撃に対するネットワークの堅牢性の向上,の3つのシナリオで実証されている。
MNIST と CIFAR-10 モデルによる評価の結果,NNrepair は毒データでは 45.56 ポイント,敵対データでは 10.40 ポイント の精度を向上できることがわかった。
NNrepairはまた、新しいデータや再トレーニングを必要とせずに、モデルの全体的な精度をわずかに改善する。
関連論文リスト
- Cost-Effective Fault Tolerance for CNNs Using Parameter Vulnerability Based Hardening and Pruning [0.4660328753262075]
本稿では,ニューラルネットワークに誤り訂正を直接組み込むことにより,CNNのモデルレベル硬化手法を提案する。
提案手法は,TMRに基づく補正とほぼ同等の耐故障性を示すが,オーバーヘッドは大幅に減少する。
注目すべきは、硬化したpruned CNNは、硬化したun-prunedよりも最大24%高速であることだ。
論文 参考訳(メタデータ) (2024-05-17T09:42:44Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Enriching Neural Network Training Dataset to Improve Worst-Case
Performance Guarantees [0.0]
トレーニング中にNNトレーニングデータセットを適用することで、NNのパフォーマンスが向上し、最悪の場合の違反を大幅に低減できることを示す。
本稿では、最悪のケース違反を低減し、最悪のケース性能保証を改善したニューラルネットワークを提供するために、トレーニングデータセットを重要なデータポイントで識別し、強化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-23T12:59:37Z) - CorrectNet: Robustness Enhancement of Analog In-Memory Computing for
Neural Networks by Error Suppression and Compensation [4.570841222958966]
本稿では,ニューラルネットワークの変動と雑音下での堅牢性を高める枠組みを提案する。
ニューラルネットワークの予測精度は、変動とノイズの下で1.69%以下から回復可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T19:13:33Z) - Automated Repair of Neural Networks [0.26651200086513094]
安全でないNNの安全仕様を修復するためのフレームワークを提案する。
提案手法では,重み値のいくつかを修正して,新しい安全なNN表現を探索することができる。
我々は,提案するフレームワークが安全なNNを実現する能力を示す広範な実験を行った。
論文 参考訳(メタデータ) (2022-07-17T12:42:24Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Causality-based Neural Network Repair [9.356001065771064]
本稿では因果性に基づくニューラルネットワーク修復手法であるCARE(textbfCAusality-based textbfREpair)を提案する。
CAREは、すべてのニューラルネットワークを効率的かつ効率的に修復することができる。
論文 参考訳(メタデータ) (2022-04-20T07:33:52Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Multiplicative Reweighting for Robust Neural Network Optimization [51.67267839555836]
MW(multiplicative weight)更新は、専門家のアドバイスにより、適度なデータ破損に対して堅牢である。
MWはラベルノイズの存在下でニューラルネットワークの精度を向上することを示す。
論文 参考訳(メタデータ) (2021-02-24T10:40:25Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。