論文の概要: Work In Progress: Safety and Robustness Verification of
Autoencoder-Based Regression Models using the NNV Tool
- arxiv url: http://arxiv.org/abs/2207.06759v1
- Date: Thu, 14 Jul 2022 09:10:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 23:17:29.638195
- Title: Work In Progress: Safety and Robustness Verification of
Autoencoder-Based Regression Models using the NNV Tool
- Title(参考訳): 開発中:nnvツールを用いたオートエンコーダに基づく回帰モデルの安全性とロバスト性検証
- Authors: Neelanjana Pal (Department of Electrical and Computer Engineering
Vanderbilt University, USA), Taylor T Johnson (Department of Electrical and
Computer Engineering Vanderbilt University, USA)
- Abstract要約: 本研究では、自己エンコーダに基づく回帰ニューラルネットワーク(NN)モデルに対する堅牢性検証を導入する。
自己エンコーダに基づく回帰モデルに対するロバストネス評価指標の2つの定義を導入する。
著者の理解によれば、この論文は、オートエンコーダベースのNNの到達可能性分析を初めて示した論文である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work in progress paper introduces robustness verification for
autoencoder-based regression neural network (NN) models, following
state-of-the-art approaches for robustness verification of image classification
NNs. Despite the ongoing progress in developing verification methods for safety
and robustness in various deep neural networks (DNNs), robustness checking of
autoencoder models has not yet been considered. We explore this open space of
research and check ways to bridge the gap between existing DNN verification
methods by extending existing robustness analysis methods for such autoencoder
networks. While classification models using autoencoders work more or less
similar to image classification NNs, the functionality of regression models is
distinctly different. We introduce two definitions of robustness evaluation
metrics for autoencoder-based regression models, specifically the percentage
robustness and un-robustness grade. We also modified the existing Imagestar
approach, adjusting the variables to take care of the specific input types for
regression networks. The approach is implemented as an extension of NNV, then
applied and evaluated on a dataset, with a case study experiment shown using
the same dataset. As per the authors' understanding, this work in progress
paper is the first to show possible reachability analysis of autoencoder-based
NNs.
- Abstract(参考訳): 本稿では,画像分類nnのロバスト性検証のための最先端手法に従い,自動エンコーダ型回帰ニューラルネットワーク(nn)モデルのロバスト性検証を提案する。
様々なディープニューラルネットワーク(DNN)における安全性と堅牢性の検証手法の開発が進行中であるにもかかわらず、オートエンコーダモデルの堅牢性チェックはまだ検討されていない。
このオープンな研究空間を探求し、これらのオートエンコーダネットワークに対する既存のロバスト性解析手法を拡張して既存のDNN検証手法のギャップを埋める方法を確認する。
オートエンコーダを用いた分類モデルは画像分類NNと多かれ少なかれよく似ているが、回帰モデルの機能は明らかに異なる。
本稿では,自己エンコーダに基づく回帰モデルに対するロバスト性評価の指標を2つ導入する。
また、既存のImagetarアプローチを変更し、回帰ネットワークの特定の入力タイプを処理できるように変数を調整しました。
この手法はNNVの拡張として実装され、同じデータセットを用いてケーススタディ実験を行い、データセット上で適用および評価される。
著者らの理解によれば、この研究はautoencoderベースのnnsの到達可能性分析を初めて示したものである。
関連論文リスト
- AI-Aided Kalman Filters [65.35350122917914]
カルマンフィルタ(KF)とその変種は、信号処理において最も著名なアルゴリズムの一つである。
最近の進歩は、古典的なカルマン型フィルタリングでディープニューラルネットワーク(DNN)を融合させる可能性を示している。
本稿では,KF型アルゴリズムにAIを組み込むための設計アプローチについて,チュートリアル形式で概説する。
論文 参考訳(メタデータ) (2024-10-16T06:47:53Z) - Exploring Cross-model Neuronal Correlations in the Context of Predicting Model Performance and Generalizability [2.6708879445664584]
本稿では,新しいモデルを用いたモデルの性能評価手法を提案する。
提案手法は,1つのネットワーク内の各ニューロンに対して,類似の出力を生成する他のネットワークにニューロンが存在するかどうかを判定することにより相関性を評価する。
論文 参考訳(メタデータ) (2024-08-15T22:57:39Z) - Deep Graph Reprogramming [112.34663053130073]
グラフニューラルネットワーク(GNN)に適したタスク再利用モデル「ディープグラフ再プログラミング」
本稿では,モデル再プログラミングパラダイムと並行して,革新的なデータ再プログラミングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-28T02:04:29Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Adversarial Learning Networks: Source-free Unsupervised Domain
Incremental Learning [0.0]
非定常環境では、DNNモデルの更新にはパラメータの再トレーニングやモデル微調整が必要である。
DNN分類モデルを更新するための教師なしソースフリー手法を提案する。
既存の手法とは異なり,本手法では過去のトレーニングデータを格納することなく,非定常的なソースとターゲットタスクに対して段階的にDNNモデルを更新することができる。
論文 参考訳(メタデータ) (2023-01-28T02:16:13Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - MEMO: Test Time Robustness via Adaptation and Augmentation [131.28104376280197]
テスト時間ロバスト化の問題、すなわちモデルロバスト性を改善するためにテストインプットを用いて検討する。
最近の先行研究ではテスト時間適応法が提案されているが、それぞれ追加の仮定を導入している。
モデルが確率的で適応可能な任意のテスト環境で使用できるシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:55:11Z) - Auditory Attention Decoding from EEG using Convolutional Recurrent
Neural Network [20.37214453938965]
聴覚注意復号(aad)アプローチは,マルチトーカーシナリオにおいて参加者のアイデンティティを判定するために提案されている。
近年,この問題を解決するためにディープニューラルネットワーク(DNN)に基づくモデルが提案されている。
本論文では,新しい畳み込み型リカレントニューラルネットワーク(CRNN)に基づく回帰モデルと分類モデルを提案する。
論文 参考訳(メタデータ) (2021-03-03T05:09:40Z) - Improving Video Instance Segmentation by Light-weight Temporal
Uncertainty Estimates [11.580916951856256]
本稿では,インスタンスセグメンテーションネットワークの不確かさをモデル化するための時間動的手法を提案する。
本稿では,偽陽性の検出と予測品質の推定に本手法を適用した。
提案手法は、容易に訓練されたニューラルネットワークとビデオシーケンス入力のみを必要とする。
論文 参考訳(メタデータ) (2020-12-14T13:39:05Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Semi-supervised Grasp Detection by Representation Learning in a Vector
Quantized Latent Space [1.3048920509133808]
本稿では,半教師付き学習に基づく把握検出手法を提案する。
我々の知る限りでは、変分オートエンコーダ(VAE)がロボットグリップ検出の分野に応用されたのはこれが初めてである。
このモデルでは、未ラベル画像を使用しない既存の手法に比べて、グリップを改善するために大幅に性能が向上する。
論文 参考訳(メタデータ) (2020-01-23T12:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。