論文の概要: NNrepair: Constraint-based Repair of Neural Network Classifiers
- arxiv url: http://arxiv.org/abs/2103.12535v1
- Date: Tue, 23 Mar 2021 13:44:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 14:08:26.483171
- Title: NNrepair: Constraint-based Repair of Neural Network Classifiers
- Title(参考訳): NNrepair: ニューラルネットワーク分類器の制約に基づく修復
- Authors: Muhammad Usman, Divya Gopinath, Youcheng Sun, Yannic Noller and Corina
Pasareanu
- Abstract要約: NNrepairはニューラルネットワークの分類器を修復するための制約ベースの技術である。
NNrepairはまず、障害のあるネットワークパラメータを見つけるために障害ローカリゼーションを使用します。
その後、制約解決を使用して修復を行い、パラメータに小さな修正を加えて欠陥を修復する。
- 参考スコア(独自算出の注目度): 10.129874872336762
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present NNrepair, a constraint-based technique for repairing neural
network classifiers. The technique aims to fix the logic of the network at an
intermediate layer or at the last layer. NNrepair first uses fault localization
to find potentially faulty network parameters (such as the weights) and then
performs repair using constraint solving to apply small modifications to the
parameters to remedy the defects. We present novel strategies to enable precise
yet efficient repair such as inferring correctness specifications to act as
oracles for intermediate layer repair, and generation of experts for each
class. We demonstrate the technique in the context of three different
scenarios: (1) Improving the overall accuracy of a model, (2) Fixing security
vulnerabilities caused by poisoning of training data and (3) Improving the
robustness of the network against adversarial attacks. Our evaluation on MNIST
and CIFAR-10 models shows that NNrepair can improve the accuracy by 45.56
percentage points on poisoned data and 10.40 percentage points on adversarial
data. NNrepair also provides small improvement in the overall accuracy of
models, without requiring new data or re-training.
- Abstract(参考訳): 本稿では,ニューラルネットワーク分類器の修復手法であるNNrepairを提案する。
この技術は、中間層または最終層でネットワークのロジックを修正することを目的としている。
NNrepairはまず障害のローカライゼーションを使用して、潜在的な障害のあるネットワークパラメータ(重み付けなど)を見つけ、続いて制約解決を使用して修復を行い、パラメータに小さな修正を加えて欠陥を修復する。
本稿では,中間層修復のオーラクルとして機能する正当性仕様の推測や,各クラスの専門家の生成など,正確かつ効率的な修復を可能にする新しい手法を提案する。
本手法は,(1)モデルの全体的な精度の向上,(2)訓練データの汚染によるセキュリティ上の脆弱性の修正,(3)敵攻撃に対するネットワークの堅牢性の向上,の3つのシナリオで実証されている。
MNIST と CIFAR-10 モデルによる評価の結果,NNrepair は毒データでは 45.56 ポイント,敵対データでは 10.40 ポイント の精度を向上できることがわかった。
NNrepairはまた、新しいデータや再トレーニングを必要とせずに、モデルの全体的な精度をわずかに改善する。
関連論文リスト
- Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - Enriching Neural Network Training Dataset to Improve Worst-Case
Performance Guarantees [0.0]
トレーニング中にNNトレーニングデータセットを適用することで、NNのパフォーマンスが向上し、最悪の場合の違反を大幅に低減できることを示す。
本稿では、最悪のケース違反を低減し、最悪のケース性能保証を改善したニューラルネットワークを提供するために、トレーニングデータセットを重要なデータポイントで識別し、強化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-23T12:59:37Z) - CorrectNet: Robustness Enhancement of Analog In-Memory Computing for
Neural Networks by Error Suppression and Compensation [4.570841222958966]
本稿では,ニューラルネットワークの変動と雑音下での堅牢性を高める枠組みを提案する。
ニューラルネットワークの予測精度は、変動とノイズの下で1.69%以下から回復可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T19:13:33Z) - Automated Repair of Neural Networks [0.26651200086513094]
安全でないNNの安全仕様を修復するためのフレームワークを提案する。
提案手法では,重み値のいくつかを修正して,新しい安全なNN表現を探索することができる。
我々は,提案するフレームワークが安全なNNを実現する能力を示す広範な実験を行った。
論文 参考訳(メタデータ) (2022-07-17T12:42:24Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Causality-based Neural Network Repair [9.356001065771064]
本稿では因果性に基づくニューラルネットワーク修復手法であるCARE(textbfCAusality-based textbfREpair)を提案する。
CAREは、すべてのニューラルネットワークを効率的かつ効率的に修復することができる。
論文 参考訳(メタデータ) (2022-04-20T07:33:52Z) - Local Repair of Neural Networks Using Optimization [13.337627875398393]
トレーニング済みフィードフォワードニューラルネットワーク(NN)を修復する枠組みを提案する。
対象の入力領域に対してNNの出力に制約を課す述語の一式としてプロパティを定式化する。
本稿では,アフィン変換のバウンダリング,誤分類NNの修正,NNコントローラのインプットのバウンダリングにおけるフレームワークの適用例を示す。
論文 参考訳(メタデータ) (2021-09-28T20:52:26Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。