論文の概要: Arachne: Search Based Repair of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/1912.12463v2
- Date: Tue, 16 Aug 2022 22:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 13:04:10.959700
- Title: Arachne: Search Based Repair of Deep Neural Networks
- Title(参考訳): Arachne: ディープニューラルネットワークの検索ベースの修復
- Authors: Jeongju Sohn, Sungmin Kang, Shin Yoo
- Abstract要約: 本稿では,Deep Neural Networks(DNN)の新しいプログラム修復手法であるArachneを紹介する。
Arachneは、入出力ペアを仕様として使用してDNNを直接修復する。
実験的な研究によると、Arachneは一般的な精度を大幅に下げることなく、DNNの特定の誤分類を修正することができる。
また, 性別分類モデルに偏りを生じさせることで, 公平性問題に対処できることを示す。
- 参考スコア(独自算出の注目度): 16.522234471615214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid and widespread adoption of Deep Neural Networks (DNNs) has called
for ways to test their behaviour, and many testing approaches have successfully
revealed misbehaviour of DNNs. However, it is relatively unclear what one can
do to correct such behaviour after revelation, as retraining involves costly
data collection and does not guarantee to fix the underlying issue. This paper
introduces Arachne, a novel program repair technique for DNNs, which directly
repairs DNNs using their input-output pairs as a specification. Arachne
localises neural weights on which it can generate effective patches and uses
Differential Evolution to optimise the localised weights and correct the
misbehaviour. An empirical study using different benchmarks shows that Arachne
can fix specific misclassifications of a DNN without reducing general accuracy
significantly. On average, patches generated by Arachne generalise to 61.3% of
unseen misbehaviour, whereas those by a state-of-the-art DNN repair technique
generalise only to 10.2% and sometimes to none while taking tens of times more
than Arachne. We also show that Arachne can address fairness issues by
debiasing a gender classification model. Finally, we successfully apply Arachne
to a text sentiment model to show that it generalises beyond Convolutional
Neural Networks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の急速な普及により、その振る舞いをテストする方法が求められ、多くのテストアプローチがDNNの誤動作をうまく明らかにしている。
しかし、リトレーニングには高価なデータ収集が伴い、根本問題を修正する保証がないため、そのような振る舞いを修正するために何ができるかは比較的不明確である。
本稿では, DNN の新たな修復手法である Arachne を紹介し, 入出力ペアを仕様として, DNN を直接修復する。
arachneは、効果的なパッチを生成できる神経重みを局在化し、差動進化を用いて局所的な重みを最適化し、誤動作を補正する。
異なるベンチマークを用いた実証研究により、Arachneは一般的な精度を著しく低下させることなく、DNNの特定の誤分類を修正できることが示されている。
アラフネが生成したパッチは、平均して61.3%、最先端のDNN修復技術によるパッチは10.2%と、アラフネよりも数十倍の頻度で一般化されている。
また, 性別分類モデルに偏りを生じさせることで, 公平性に対処できることを示す。
最後に、Arachneをテキスト感情モデルに適用し、畳み込みニューラルネットワークを超えて一般化することを示す。
関連論文リスト
- Bayesian Neural Networks with Domain Knowledge Priors [52.80929437592308]
ドメイン知識の一般的な形式をBNNに組み込むためのフレームワークを提案する。
提案したドメイン知識を用いたBNNは,標準知識のBNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-20T22:34:53Z) - Mitigating Backdoors within Deep Neural Networks in Data-limited
Configuration [1.1663475941322277]
バックドアされたディープニューラルネットワークは、テスト時にサンプルにトリガーが注入されたときに悪意を持って振る舞いながら、クリーンなデータに正常な振る舞いを示す。
本稿では, 有毒ニューロンの特性を定式化する。
このバックドア不確実性スコアは、ネットワークニューロンの活性化値、重み、および同一層の他のニューロンとの関係に応じてランク付けすることができる。
論文 参考訳(メタデータ) (2023-11-13T15:54:27Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Making a Spiking Net Work: Robust brain-like unsupervised machine
learning [0.0]
Spiking Neural Networks (SNN)は、Artificial Neural Networks (ANN)の代替品である
SNNは動的安定性に悩まされており、ANNの精度と一致しない。
本稿では,SNNが文献で確認された多くの欠点を克服する方法について述べる。
論文 参考訳(メタデータ) (2022-08-02T02:10:00Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Reducing Flipping Errors in Deep Neural Networks [39.24451665215755]
ディープニューラルネットワーク(DNN)は、人工知能の様々な領域に広く応用されている。
本報告では,DNNが最終時代において誤って分類した検体(未確認検体)が,どの程度の精度で正しく分類されたかについて検討する。
本稿では, DNN の動作変化を, 適切な局所境界を維持するために, 正しく分類されたサンプル上での動作変化を制限することを提案する。
論文 参考訳(メタデータ) (2022-03-16T04:38:06Z) - Minimal Multi-Layer Modifications of Deep Neural Networks [0.0]
我々は、与えられたディープニューラルネットワーク(DNN)を修復するための3M-DNNと呼ばれる新しいツールを提案する。
3M-DNNは、ネットワークの重みの変更を計算し、その振る舞いを補正し、バックエンドの検証エンジンへの一連の呼び出しを通じて、この変更を最小化しようとする。
私たちの知る限りでは、複数のレイヤを同時に修正することでネットワークを修復できる最初の方法です。
論文 参考訳(メタデータ) (2021-10-18T10:20:27Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Bayesian x-vector: Bayesian Neural Network based x-vector System for
Speaker Verification [71.45033077934723]
我々はディープニューラルネットワーク(DNN)xベクトル話者検証システムにベイズニューラルネットワーク(BNN)を組み込む。
BNNによって提供される重みの不確実性モデリングにより、システムは評価データにより良い一般化を期待できる。
その結果、BNNの相対的なEERの2.66%と2.32%の減少により、短文と短文のドメイン評価が可能であることが判明した。
論文 参考訳(メタデータ) (2020-04-08T14:35:12Z) - Universal Adversarial Attack on Attention and the Resulting Dataset
DAmageNet [18.043192473747737]
ディープニューラルネットワーク(DNN)に対する敵対的な攻撃は、数年前から発見されている。
DNNが共有するセマンティックプロパティであるアタック・オン・アテンション(AoA)を提案する。
我々は、ImageNetバリデーションセットから50万の敵対的サンプルを生成し、多くのニューラルネットワークを破り、データセットをDAmageNetと命名する。
論文 参考訳(メタデータ) (2020-01-16T07:58:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。