論文の概要: Minimal Multi-Layer Modifications of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2110.09929v2
- Date: Wed, 20 Oct 2021 08:24:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 12:06:16.722776
- Title: Minimal Multi-Layer Modifications of Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークの最小マルチ層修正
- Authors: Idan Refaeli and Guy Katz
- Abstract要約: 我々は、与えられたディープニューラルネットワーク(DNN)を修復するための3M-DNNと呼ばれる新しいツールを提案する。
3M-DNNは、ネットワークの重みの変更を計算し、その振る舞いを補正し、バックエンドの検証エンジンへの一連の呼び出しを通じて、この変更を最小化しようとする。
私たちの知る限りでは、複数のレイヤを同時に修正することでネットワークを修復できる最初の方法です。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have become increasingly popular in recent years.
However, despite their many successes, DNNs may also err and produce incorrect
and potentially fatal outputs in safety-critical settings, such as autonomous
driving, medical diagnosis, and airborne collision avoidance systems. Much work
has been put into detecting such erroneous behavior in DNNs, e.g., via testing
or verification, but removing these errors after their detection has received
lesser attention. We present here a new tool, called 3M-DNN, for repairing a
given DNN, which is known to err on some set of inputs. The novel repair
procedure implemented in 3M-DNN computes a modification to the network's
weights that corrects its behavior, and attempts to minimize this change via a
sequence of calls to a backend, black-box DNN verification engine. To the best
of our knowledge, our method is the first one that allows repairing the network
by simultaneously modifying multiple layers. This is achieved by splitting the
network into sub-networks, and applying a single-layer repairing technique to
each component. We evaluated 3M-DNN tool on an extensive set of benchmarks,
obtaining promising results.
- Abstract(参考訳): 近年、ディープニューラルネットワーク(DNN)はますます人気が高まっている。
しかし、多くの成功にもかかわらず、DNNは、自律運転、診断、空中衝突回避システムなどの安全上重要な設定において、不正で致命的なアウトプットを発生させる可能性がある。
テストや検証などを通じて、DNNのこのような誤動作を検出する作業が数多く行われているが、検出後にこれらのエラーを取り除くことにはあまり注意が払われていない。
ここでは、与えられたDNNを修復するための3M-DNNと呼ばれる新しいツールを紹介します。
3M-DNNで実装された新しい修復手順は、ネットワークの重みを修正してその振る舞いを補正し、バックエンドのブラックボックスDNN検証エンジンへの一連の呼び出しを通じて、この変更を最小化しようとするものである。
私たちの知る限りでは、複数のレイヤを同時に修正することでネットワークを修復できる最初の方法です。
これはネットワークをサブネットワークに分割し、各コンポーネントに単層補修技術を適用することで実現される。
3M-DNNツールをベンチマークで評価し,有望な結果を得た。
関連論文リスト
- DelBugV: Delta-Debugging Neural Network Verifiers [0.0]
ディープニューラルネットワーク(DNN)は、ボード全体の多様なシステムにおいて重要なコンポーネントになりつつある。
彼らの成功にもかかわらず、しばしば悲惨な結果となり、これがそれらを正式に検証することに大きな関心を惹き付けている。
本稿では,DNN検証器上でデルタデバッギングを自動的に行うDelBugVという新しいツールを提案する。
論文 参考訳(メタデータ) (2023-05-29T18:42:03Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Robust and Lossless Fingerprinting of Deep Neural Networks via Pooled
Membership Inference [17.881686153284267]
ディープニューラルネットワーク(DNN)は、すでに多くのアプリケーション分野で大きな成功を収めており、私たちの社会に大きな変化をもたらしています。
DNNの知的財産権(IP)を侵害から保護する方法は、最も重要かつ非常に困難なトピックの1つである。
本稿では,DNNモデルのIPを保護するために,Emphpooled Memberation Inference (PMI) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-09T04:06:29Z) - Pruning and Slicing Neural Networks using Formal Verification [0.2538209532048866]
ディープニューラルネットワーク(DNN)は、様々なコンピュータシステムにおいてますます重要な役割を担っている。
これらのネットワークを作成するために、エンジニアは通常、望ましいトポロジを指定し、自動トレーニングアルゴリズムを使用してネットワークの重みを選択する。
本稿では,近年のDNN検証の進歩を活用して,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2021-05-28T07:53:50Z) - Strengthening the Training of Convolutional Neural Networks By Using
Walsh Matrix [0.0]
分類性能を向上させるため,DNNのトレーニングと構造を変更した。
畳み込みニューラルネットワーク(CNN)の最後の層に続く最小距離ネットワーク(MDN)が分類器として使用される。
異なる領域では、ノード数が少ないDivFEを使用することでより高い分類性能が得られたことが観察されている。
論文 参考訳(メタデータ) (2021-03-31T18:06:11Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Enhancing Graph Neural Network-based Fraud Detectors against Camouflaged
Fraudsters [78.53851936180348]
近年の実証研究,すなわち特徴カモフラージュと関係カモフラージュの2種類のカモフラージュを紹介した。
既存のGNNはこれらの2つのカモフラージュに対処していない。
カモフラージュ抵抗型GNN(CARE-GNN)と呼ばれる新しいモデルを提案し、カモフラージュに対する3つのユニークなモジュールを用いたGNN集約プロセスを強化する。
論文 参考訳(メタデータ) (2020-08-19T22:33:12Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。