論文の概要: Architecture-Preserving Provable Repair of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2304.03496v2
- Date: Wed, 16 Aug 2023 09:05:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-08-17 17:13:20.087779
- Title: Architecture-Preserving Provable Repair of Deep Neural Networks
- Title(参考訳): 深部ニューラルネットワークのアーキテクチャ保存可能修復
- Authors: Zhe Tao, Stephanie Nawas, Jacqueline Mitchell, Aditya V. Thakur
- Abstract要約: ディープニューラルネットワーク(DNN)は、ソフトウェアにおいてますます重要になってきており、多くの問題に対する最先端のソリューションと考えられている。
本稿では,DNNの修復が可能なアーキテクチャ保存型V-ポリトープの問題に対処する。
- 参考スコア(独自算出の注目度): 2.4687962186994663
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep neural networks (DNNs) are becoming increasingly important components of
software, and are considered the state-of-the-art solution for a number of
problems, such as image recognition. However, DNNs are far from infallible, and
incorrect behavior of DNNs can have disastrous real-world consequences. This
paper addresses the problem of architecture-preserving V-polytope provable
repair of DNNs. A V-polytope defines a convex bounded polytope using its vertex
representation. V-polytope provable repair guarantees that the repaired DNN
satisfies the given specification on the infinite set of points in the given
V-polytope. An architecture-preserving repair only modifies the parameters of
the DNN, without modifying its architecture. The repair has the flexibility to
modify multiple layers of the DNN, and runs in polynomial time. It supports
DNNs with activation functions that have some linear pieces, as well as
fully-connected, convolutional, pooling and residual layers. To the best our
knowledge, this is the first provable repair approach that has all of these
features. We implement our approach in a tool called APRNN. Using MNIST,
ImageNet, and ACAS Xu DNNs, we show that it has better efficiency, scalability,
and generalization compared to PRDNN and REASSURE, prior provable repair
methods that are not architecture preserving.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、ソフトウェアにおいてますます重要になってきており、画像認識など、多くの問題に対する最先端のソリューションと考えられている。
しかし、DNNは失敗には程遠いため、DNNの誤った振る舞いは破滅的な現実的な結果をもたらす可能性がある。
本稿では,DNNの修復が可能なアーキテクチャ保存型Vポリトープの問題に対処する。
V-ポリトープはその頂点表現を用いて凸有界ポリトープを定義する。
V-ポリトープの証明可能な修復は、修理されたDNNが与えられたV-ポリトープの無限の点集合上の与えられた仕様を満たすことを保証する。
アーキテクチャを保存する修復は、アーキテクチャを変更することなく、DNNのパラメータを変更するだけである。
修復はDNNの複数のレイヤを変更する柔軟性があり、多項式時間で実行される。
線形な部分を持つアクティベーション機能を備えたdnnをサポートし、完全接続、畳み込み、プール、残留層も備えている。
私たちの知る限りでは、これらの機能をすべて備えた最初の証明可能な修復アプローチです。
APRNNと呼ばれるツールにアプローチを実装します。
mnist, imagenet, acas xu dnns を用いて,prdnn や reassure よりも効率,スケーラビリティ,一般化が優れており,アーキテクチャを保存していない事前証明可能な修復手法であることを示した。
関連論文リスト
- Repairing Deep Neural Networks Based on Behavior Imitation [5.1791561132409525]
本稿では,ディープニューラルネットワーク(DNN)のための行動シミュレーションに基づく修復フレームワークを提案する。
BIRDNNは、再トレーニング修復過程における正のサンプルの最も近い振る舞いを模倣することにより、負のサンプルの誤予測を補正する。
微調整修復プロセスにおいて、BIRDNNは、正および負のサンプル上でのニューロンの行動差を分析し、誤動作に対する最も責任あるニューロンを特定する。
論文 参考訳(メタデータ) (2023-05-05T08:33:28Z) - Incremental Satisfiability Modulo Theory for Verification of Deep Neural
Networks [22.015676101940077]
本稿ではReluplexフレームワークに基づく漸進的満足度変調理論(SMT)を提案する。
我々は,DeepIncと呼ばれる漸進的な解法としてアルゴリズムを実装し,実験結果から,ほとんどの場合,DeepIncの方が効率的であることが示された。
論文 参考訳(メタデータ) (2023-02-10T04:31:28Z) - Measurement-Consistent Networks via a Deep Implicit Layer for Solving
Inverse Problems [0.0]
エンドツーエンドのディープニューラルネットワーク(DNN)は、逆問題を解決するための最先端のSOTA(State-of-the-art)になっている。
これらのネットワークは、トレーニングパイプラインの小さなバリエーションに敏感であり、小さなが重要な詳細を再構築することができないことが多い。
本稿では,逆問題に対して任意のDNNを計測一貫性に変換するフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-06T17:05:04Z) - Towards a General Purpose CNN for Long Range Dependencies in
$\mathrm{N}$D [49.57261544331683]
構造変化のない任意の解像度,次元,長さのタスクに対して,連続的な畳み込みカーネルを備えた単一CNNアーキテクチャを提案する。
1$mathrmD$)とビジュアルデータ(2$mathrmD$)の幅広いタスクに同じCCNNを適用することで、我々のアプローチの汎用性を示す。
私たちのCCNNは競争力があり、検討されたすべてのタスクで現在の最先端を上回ります。
論文 参考訳(メタデータ) (2022-06-07T15:48:02Z) - ArchRepair: Block-Level Architecture-Oriented Repairing for Deep Neural
Networks [13.661704974188872]
本稿では,ブロックレベルでのディープニューラルネットワーク(DNN)の新たな修復方向を提案する。
本稿では,脆弱なブロックローカライゼーションのための逆アウェアスペクトル分析法を提案する。
また,対象のブロックを連続的に修復する検索空間に緩和するアーキテクチャ指向の検索ベース修復を提案する。
論文 参考訳(メタデータ) (2021-11-26T06:35:15Z) - Provable Repair of Deep Neural Networks [8.55884254206878]
ディープニューラルネットワーク(Deep Neural Networks, DNN)は、過去10年間で人気を博し、航空機の衝突回避などの安全上重要な領域で使われている。
本稿では,安全でない動作が見つかるとDNNの修正に対処する。
与えられた仕様を満たす新しいネットワークN'を構築するためにネットワークNを修復する問題である実証可能な修復問題を紹介します。
論文 参考訳(メタデータ) (2021-04-09T15:03:53Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - An Infinite-Feature Extension for Bayesian ReLU Nets That Fixes Their
Asymptotic Overconfidence [65.24701908364383]
ベイズ処理は、トレーニングデータを取り巻くReLUネットの過信を軽減することができる。
しかし、彼らから遠く離れたところでは、ReLUニューラルネットワーク(BNN)はいまだに不確実性を過小評価し過ぎている可能性がある。
事前学習した任意のReLU BNNに対して,低コストでemphpost-hocを適用可能であることを示す。
論文 参考訳(メタデータ) (2020-10-06T13:32:18Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - BLK-REW: A Unified Block-based DNN Pruning Framework using Reweighted
Regularization Method [69.49386965992464]
本稿では, 汎用的かつ柔軟な構造化プルーニング次元と, 強力かつ効率的な再加重正規化手法を組み合わせたブロック型プルーニングフレームワークを提案する。
我々のフレームワークは普遍的であり、CNNとRNNの両方に適用できる。
リアルタイムモバイルアクセラレーションと精度の妥協のないCNNとRNNの共通カバレッジを実現するのはこれが初めてである。
論文 参考訳(メタデータ) (2020-01-23T03:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。