論文の概要: A Robust Classification-autoencoder to Defend Outliers and Adversaries
- arxiv url: http://arxiv.org/abs/2106.15927v1
- Date: Wed, 30 Jun 2021 09:30:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 21:50:59.296481
- Title: A Robust Classification-autoencoder to Defend Outliers and Adversaries
- Title(参考訳): アウトレーヤとアドバイザを守るロバスト分類オートコーダ
- Authors: Lijia Yu and Xiao-Shan Gao
- Abstract要約: 本稿では,外乱を認識でき,敵を防御できる頑健な分類オートエンコーダ(CAE)を提案する。
CAEネットワークは, ほぼすべての外乱を認識でき, リスト分類には, ほぼ全ての敵に対する正しいラベルが含まれていることが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a robust classification-autoencoder (CAE) which has
strong ability to recognize outliers and defend adversaries. The basic idea is
to change the autoencoder from an unsupervised learning method into a
classifier. The CAE is a modified autoencoder, where the encoder is used to
compress samples with different labels into disjoint compression spaces and the
decoder is used to recover a sample with a given label from the corresponding
compression space. The encoder is used as a classifier and the decoder is used
to decide whether the classification given by the encoder is correct by
comparing the input sample with the output. Since adversary samples are seeming
inevitable for the current DNN framework, we introduce the list classification
based on CAE to defend adversaries, which outputs several labels and the
corresponding samples recovered by the CAE. The CAE is evaluated using the
MNIST dataset in great detail. It is shown that the CAE network can recognize
almost all outliers and the list classification contains the correct label for
almost all adversaries.
- Abstract(参考訳): 本稿では,外乱を認識でき,敵を防御できる頑健な分類オートエンコーダ(CAE)を提案する。
基本的な考え方は、オートエンコーダを教師なしの学習方法から分類器に変えることである。
CAEは修正されたオートエンコーダであり、エンコーダは異なるラベルのサンプルを非結合圧縮空間に圧縮するために使用され、デコーダは対応する圧縮空間から与えられたラベルのサンプルを復元するために使用される。
エンコーダは分類器として使用され、デコーダは入力サンプルと出力を比較して、エンコーダが与えた分類が正しいかどうかを判定するために使用される。
現在のDNNフレームワークでは、敵のサンプルは避けられないように思われるため、敵の防衛のためにCAEに基づくリスト分類を導入し、CAEが回収した複数のラベルと対応するサンプルを出力する。
CAEはMNISTデータセットを用いて詳細に評価される。
CAEネットワークは, ほぼすべての外れ値を認識することができ, リスト分類には, ほぼ全ての敵に対する正しいラベルが含まれている。
関連論文リスト
- Transferable Watermarking to Self-supervised Pre-trained Graph Encoders by Trigger Embeddings [43.067822791795095]
Graph Self-supervised Learning (GSSL)は、基礎グラフエンコーダの事前トレーニングを可能にする。
このようなエンコーダは簡単にプルインできるので、著作権侵害に弱い。
我々はGSSL設定でグラフエンコーダを保護する新しい透かしフレームワークを開発した。
論文 参考訳(メタデータ) (2024-06-19T03:16:11Z) - Semi-Supervised and Long-Tailed Object Detection with CascadeMatch [91.86787064083012]
そこで我々はCascadeMatchと呼ばれる新しい擬似ラベル型検出器を提案する。
我々の検出器は、プログレッシブな信頼しきい値を持つ多段検出ヘッドを備えたカスケードネットワークアーキテクチャを備えている。
CascadeMatchは、長い尾のオブジェクト検出の処理において、既存の最先端の半教師付きアプローチを超越していることを示す。
論文 参考訳(メタデータ) (2023-05-24T07:09:25Z) - Empowering Sentence Encoders with Prompting and Label Retrieval for
Zero-shot Text Classification [5.484132137132862]
我々のフレームワークであるRaLPは、文エンコーダでラベル候補をエンコードし、入力テキスト埋め込みと最もよく似たラベルを割り当てる。
RaLPは、様々なクローズドセット分類とマルチチョイスQAデータセットに基づいて、はるかに大きなベースラインよりも、競争力や強いパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-12-20T16:18:03Z) - Semantic Autoencoder and Its Potential Usage for Adversarial Attack [25.315265827962875]
セマンティックオートエンコーダと呼ばれる拡張されたオートエンコーダアーキテクチャを提案する。
オートエンコーダによって得られる潜在表現に依存する学習アルゴリズムに対する敵攻撃について検討する。
論文 参考訳(メタデータ) (2022-05-31T08:10:07Z) - Label Semantics for Few Shot Named Entity Recognition [68.01364012546402]
名前付きエンティティ認識におけるショットラーニングの問題について検討する。
我々は,ラベル名中の意味情報を,モデルに付加的な信号を与え,よりリッチな事前情報を与える手段として活用する。
本モデルは,第1エンコーダによって計算された名前付きエンティティの表現と,第2エンコーダによって計算されたラベル表現とを一致させることを学習する。
論文 参考訳(メタデータ) (2022-03-16T23:21:05Z) - StolenEncoder: Stealing Pre-trained Encoders [62.02156378126672]
我々は、事前訓練された画像エンコーダを盗むStolenEncoderと呼ばれる最初の攻撃を提案する。
以上の結果から,StolenEncoderが盗んだエンコーダは,ターゲットエンコーダと同じような機能を持つことがわかった。
論文 参考訳(メタデータ) (2022-01-15T17:04:38Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Unsupervised Label Refinement Improves Dataless Text Classification [48.031421660674745]
データレステキスト分類は、ラベル記述と組み合わせた文書にスコアを割り当てることで、文書を未確認のラベルに分類することができる。
有望ながら、それは重要なダウンストリームタスクごとにラベルセットの正確な説明に依存します。
この依存により、データレス分類器はラベル記述の選択に非常に敏感になり、実際にはデータレス分類の幅広い適用を妨げる。
論文 参考訳(メタデータ) (2020-12-08T03:37:50Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。