論文の概要: The Power of Typed Affine Decision Structures: A Case Study
- arxiv url: http://arxiv.org/abs/2304.14888v1
- Date: Fri, 28 Apr 2023 14:50:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 13:51:59.939041
- Title: The Power of Typed Affine Decision Structures: A Case Study
- Title(参考訳): 型付きアフィン決定構造の力--ケーススタディ
- Authors: Gerrit Nolte and Maximilian Schl\"uter and Alnis Murtovi and Bernhard
Steffen
- Abstract要約: TADSを用いて、望ましいニューラルネットワーク特性の証明または簡潔なエラー特徴を生成する。
ケーススタディでは、敵攻撃に対するニューラルネットワークの堅牢性について考察する。
本研究では, TADSを用いて, 強靭性エラーの発生状況と発生状況の正確な診断を行うことができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: TADS are a novel, concise white-box representation of neural networks. In
this paper, we apply TADS to the problem of neural network verification, using
them to generate either proofs or concise error characterizations for desirable
neural network properties. In a case study, we consider the robustness of
neural networks to adversarial attacks, i.e., small changes to an input that
drastically change a neural networks perception, and show that TADS can be used
to provide precise diagnostics on how and where robustness errors a occur. We
achieve these results by introducing Precondition Projection, a technique that
yields a TADS describing network behavior precisely on a given subset of its
input space, and combining it with PCA, a traditional, well-understood
dimensionality reduction technique. We show that PCA is easily compatible with
TADS. All analyses can be implemented in a straightforward fashion using the
rich algebraic properties of TADS, demonstrating the utility of the TADS
framework for neural network explainability and verification. While TADS do not
yet scale as efficiently as state-of-the-art neural network verifiers, we show
that, using PCA-based simplifications, they can still scale to mediumsized
problems and yield concise explanations for potential errors that can be used
for other purposes such as debugging a network or generating new training
samples.
- Abstract(参考訳): TADSはニューラルネットワークの新しい、簡潔なホワイトボックス表現である。
本稿では、TADSをニューラルネットワーク検証の問題に適用し、好適なニューラルネットワーク特性に対する証明または簡潔なエラー特性を生成する。
ケーススタディでは、ニューラルネットワークの敵攻撃に対する堅牢性、すなわち、ニューラルネットワークの知覚を劇的に変える入力に対する小さな変化を考察し、堅牢性エラーの発生方法と発生場所の正確な診断にTADSが使用できることを示す。
入力空間の所定の部分集合上でネットワーク動作を正確に記述したTADSを生成する手法であるPrecondition Projectionを導入し、従来のよく理解された次元削減手法であるPCAと組み合わせることで、これらの結果を得る。
PCAはTADSと容易に互換性があることを示す。
すべての分析は、TADSのリッチ代数的性質を用いて、ニューラルネットワークの説明可能性と検証のためのTADSフレームワークの有用性を実証し、簡単な方法で実装することができる。
TADSはまだ最先端のニューラルネットワーク検証器ほど効率的にスケールしていないが、PCAベースの単純化を用いることで、ネットワークのデバッグや新しいトレーニングサンプルの生成など他の目的に使用可能な潜在的なエラーの簡潔な説明が得られる。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - Consistency of Neural Networks with Regularization [0.0]
本稿では,ニューラルネットワークの規則化による一般的な枠組みを提案し,その一貫性を実証する。
双曲関数(Tanh)と整形線形単位(ReLU)の2種類の活性化関数が検討されている。
論文 参考訳(メタデータ) (2022-06-22T23:33:39Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Robustness against Adversarial Attacks in Neural Networks using
Incremental Dissipativity [3.8673567847548114]
逆例はニューラルネットワークの分類性能を低下させるのが容易である。
本研究は,ニューラルネットワークに対する漸進的拡散性に基づくロバスト性証明を提案する。
論文 参考訳(メタデータ) (2021-11-25T04:42:57Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Scalable Verification of Quantized Neural Networks (Technical Report) [14.04927063847749]
ビットベクトル仕様を持つ量子化ニューラルネットワークのビットエクササイズ実装はPSPACEハードであることを示す。
量子化されたニューラルネットワークのSMTに基づく検証をよりスケーラブルにするための3つの手法を提案する。
論文 参考訳(メタデータ) (2020-12-15T10:05:37Z) - SOCRATES: Towards a Unified Platform for Neural Network Analysis [7.318255652722096]
ニューラルネットワークを解析する技術を開発するための統一的なフレームワークの構築を目指している。
我々は、様々なニューラルネットワークモデルの標準化フォーマットをサポートするSOCRATESと呼ばれるプラットフォームを開発する。
実験の結果,我々のプラットフォームは幅広いネットワークモデルや特性を扱えることがわかった。
論文 参考訳(メタデータ) (2020-07-22T05:18:57Z) - Bayesian Neural Networks [0.0]
ニューラルネットワークによる予測におけるエラーを原理的に得る方法を示し、これらのエラーを特徴付ける2つの方法を提案する。
さらに、これらの2つのメソッドが実際に実施される際に、重大な落とし穴を持つ方法についても説明します。
論文 参考訳(メタデータ) (2020-06-02T09:43:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。