論文の概要: Property-Directed Verification of Recurrent Neural Networks
- arxiv url: http://arxiv.org/abs/2009.10610v1
- Date: Tue, 22 Sep 2020 15:15:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 21:22:07.061205
- Title: Property-Directed Verification of Recurrent Neural Networks
- Title(参考訳): リカレントニューラルネットワークの特性指向検証
- Authors: Igor Khmelnitsky, Daniel Neider, Rajarshi Roy, Beno\^it Barbot,
Benedikt Bollig, Alain Finkel, Serge Haddad, Martin Leucker, Lina Ye
- Abstract要約: 本稿では、リカレントニューラルネットワーク(RNN)を検証するための特性指向アプローチを提案する。
能動オートマトン学習を用いて、所定のRNNから代理モデルとして決定論的有限オートマトンを学習する。
このモデルを検証手法としてモデル検査を用いて解析することができる。
- 参考スコア(独自算出の注目度): 2.372168305957388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a property-directed approach to verifying recurrent
neural networks (RNNs). To this end, we learn a deterministic finite automaton
as a surrogate model from a given RNN using active automata learning. This
model may then be analyzed using model checking as verification technique. The
term property-directed reflects the idea that our procedure is guided and
controlled by the given property rather than performing the two steps
separately. We show that this not only allows us to discover small
counterexamples fast, but also to generalize them by pumping towards faulty
flows hinting at the underlying error in the RNN.
- Abstract(参考訳): 本稿では,recurrent neural networks (rnns) の検証手法を提案する。
そこで本研究では,与えられたrnnから決定論的有限オートマトンをサロゲートモデルとして学習する。
このモデルを検証手法としてモデル検査を用いて解析することができる。
property-directed という用語は、2つのステップを別々に実行するのではなく、与えられたプロパティによって操作され制御されるという考えを反映している。
これにより、小さな反例を高速に発見できるだけでなく、RNNの根底にある誤りを示唆する不良な流れに飛び乗ることで、それらを一般化できることを示す。
関連論文リスト
- Recurrent networks recognize patterns with low-dimensional oscillations [0.0]
本研究では、SETカードゲームにインスパイアされた簡単なタスクで訓練されたリカレントニューラルネットワーク(RNN)を解釈することにより、パターン認識のための新しい動的メカニズムを提案する。
我々は、訓練されたRNNを、有限状態オートマトン(FSA)の遷移に類似した方法で、低次元極限サイクルにおける位相シフトによるパターンの認識であると解釈した。
論文 参考訳(メタデータ) (2023-10-11T21:25:12Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Neural Abstractions [72.42530499990028]
本稿では,ニューラルネットワークを用いた非線形力学モデルの安全性検証手法を提案する。
提案手法は,既存のベンチマーク非線形モデルにおいて,成熟度の高いFlow*と同等に動作することを示す。
論文 参考訳(メタデータ) (2023-01-27T12:38:09Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Time-Adaptive Recurrent Neural Networks [0.0]
リカレントニューラルネットワーク(RNN)は、伝統的に事実を無視し、時間差を追加入力として与えたり、データを再サンプリングしたりする。
我々は、RNNがデータ時間に間に合うように実効的に再サンプリングされるエレガントな代替手法を提案する。
論文 参考訳(メタデータ) (2022-04-11T15:27:40Z) - Recurrent Neural Networks for Learning Long-term Temporal Dependencies
with Reanalysis of Time Scale Representation [16.32068729107421]
時間的表現としての忘れ門の解釈は、状態に対する損失の勾配が時間とともに指数関数的に減少するときに有効であると主張する。
本稿では,従来のモデルよりも長い時間スケールを表現できる新しいRNNの構築手法を提案する。
論文 参考訳(メタデータ) (2021-11-05T06:22:58Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Path classification by stochastic linear recurrent neural networks [2.5499055723658097]
トレーニングや分類作業に利用されるユニークな情報として,RNNが供給される経路の部分的なシグネチャを保持することを示す。
これらのRNNは訓練が容易で堅牢であり、これらの観測を合成データと実データの両方で数値実験で裏付けるものである、と我々は主張する。
論文 参考訳(メタデータ) (2021-08-06T12:59:12Z) - Unsupervised Detection of Adversarial Examples with Model Explanations [0.6091702876917279]
本稿では,モデル動作を説明するために開発された手法を用いて,逆例を検出するための簡易かつ効果的な手法を提案する。
MNIST手書きデータセットを用いて評価したところ,本手法は高い信頼度で敵のサンプルを検出することができることがわかった。
論文 参考訳(メタデータ) (2021-07-22T06:54:18Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。