論文の概要: Autoencoder Watchdog Outlier Detection for Classifiers
- arxiv url: http://arxiv.org/abs/2010.12754v2
- Date: Wed, 10 Feb 2021 16:51:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 13:18:34.459184
- Title: Autoencoder Watchdog Outlier Detection for Classifiers
- Title(参考訳): 分類器のオートエンコーダ・ウォッチドッグ異常検出
- Authors: Justin Bui and Robert J Marks II
- Abstract要約: 子猫と子犬を区別するために訓練された一般的なニューラルネットワークは、クムク人の絵を子猫または子犬として分類する。
MNIST画像を用いた畳み込みニューラルネットワークと畳み込みオートエンコーダウォッチドッグを用いて予備的な結果を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks have often been described as black boxes. A generic neural
network trained to differentiate between kittens and puppies will classify a
picture of a kumquat as a kitten or a puppy. An autoencoder watch dog screens
trained classifier/regression machine input candidates before processing, e.g.
to first test whether the neural network input is a puppy or a kitten.
Preliminary results are presented using convolutional neural networks and
convolutional autoencoder watchdogs using MNIST images.
- Abstract(参考訳): ニューラルネットワークはしばしばブラックボックスと呼ばれる。
子猫と子犬を区別するために訓練された汎用ニューラルネットワークは、クムコートの絵を子猫または子犬として分類する。
オートエンコーダは、ニューラルネットワーク入力が子犬であるか子猫であるかを最初にテストするなど、処理前に分類/回帰機械入力候補を訓練する。
MNIST画像を用いた畳み込みニューラルネットワークと畳み込みオートエンコーダウォッチドッグを用いて予備結果を示す。
関連論文リスト
- Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Generatively Augmented Neural Network Watchdog for Image Classification
Networks [0.0]
アウト・オブ・ディストリビューションデータの識別は、分類ネットワークの展開に不可欠である。
これを軽減するために、ニューラルネットワークウォッチドッグのような技術が開発されている。
本稿では,生成的ネットワークトレーニングデータ拡張を用いて,この境界線を研ぎ澄ます方法を示す。
論文 参考訳(メタデータ) (2021-09-07T19:53:20Z) - Controlled Caption Generation for Images Through Adversarial Attacks [85.66266989600572]
画像特徴抽出には畳み込みニューラルネットワーク(CNN)、キャプション生成にはリカレントニューラルネットワーク(RNN)が使用される。
特に、その後の再帰的ネットワークに供給される視覚エンコーダの隠蔽層に対する攻撃について検討する。
本稿では、CNNの内部表現を模倣したニューラルネットワークキャプションの逆例を作成するためのGANベースのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-07T07:22:41Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - A Proof of Concept Neural Network Watchdog using a Hybrid Generative
Classifier For Optimized Outlier Detection [0.0]
果物を分類するために訓練されたニューラルネットワークは、バナナの写真をバナナとして分類することができる。
ニューラルネットワークウォッチドッグは、そのような分散入力を識別するために実装される。
ハイブリッドジェネレータ/分類ネットワークを構築することで,トレーニングや評価効率の向上を図りながら,監視犬の実装が容易になる。
論文 参考訳(メタデータ) (2021-02-28T18:20:48Z) - A Neuro-Inspired Autoencoding Defense Against Adversarial Perturbations [11.334887948796611]
ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱である。
現在の最も効果的な防御策は、敵に摂動された例を使ってネットワークを訓練することである。
本稿では,神経に誘発される防御機構について検討する。
論文 参考訳(メタデータ) (2020-11-21T21:03:08Z) - Semi-supervised deep learning based on label propagation in a 2D
embedded space [117.9296191012968]
提案されたソリューションは、少数の教師なしイメージから多数の教師なしイメージにラベルを伝達し、ディープニューラルネットワークモデルをトレーニングする。
本稿では、より正確なラベル付きサンプルを反復してセットから深層ニューラルネットワーク(VGG-16)をトレーニングするループを提案する。
ラベル付きセットがイテレーションに沿って改善されるにつれて、ニューラルネットワークの機能が改善される。
論文 参考訳(メタデータ) (2020-08-02T20:08:54Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z) - Iterative training of neural networks for intra prediction [9.79240885347226]
本稿では,ブロックベース画像とビデオにおける内部予測のためのニューラルネットワークの反復的トレーニングを提案する。
このトレーニングのおかげで、ニューラルネットワークは、初期イテレーションですでに目立った機能から、予測機能を学ぶことができる。
論文 参考訳(メタデータ) (2020-03-15T12:29:51Z) - Advbox: a toolbox to generate adversarial examples that fool neural
networks [3.220531121670532]
AdvboxはPaddlePaddle、PyTorch、Caffe2、MxNet、Kerasでニューラルネットワークを騙すツールであり、機械学習モデルの堅牢性をベンチマークすることができる。
マシンラーニング・アズ・ア・サービスに対するブラックボックス攻撃と、Face Attack、Stealth Tシャツ、DeepFake Face Detectなどの攻撃シナリオをサポートする。
論文 参考訳(メタデータ) (2020-01-13T08:11:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。