論文の概要: Semantic Autoencoder and Its Potential Usage for Adversarial Attack
- arxiv url: http://arxiv.org/abs/2205.15592v1
- Date: Tue, 31 May 2022 08:10:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 15:12:54.080342
- Title: Semantic Autoencoder and Its Potential Usage for Adversarial Attack
- Title(参考訳): セマンティックオートエンコーダとその敵攻撃への応用
- Authors: Yurui Ming, Cuihuan Du, and Chin-Teng Lin
- Abstract要約: セマンティックオートエンコーダと呼ばれる拡張されたオートエンコーダアーキテクチャを提案する。
オートエンコーダによって得られる潜在表現に依存する学習アルゴリズムに対する敵攻撃について検討する。
- 参考スコア(独自算出の注目度): 25.315265827962875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autoencoder can give rise to an appropriate latent representation of the
input data, however, the representation which is solely based on the intrinsic
property of the input data, is usually inferior to express some semantic
information. A typical case is the potential incapability of forming a clear
boundary upon clustering of these representations. By encoding the latent
representation that not only depends on the content of the input data, but also
the semantic of the input data, such as label information, we propose an
enhanced autoencoder architecture named semantic autoencoder. Experiments of
representation distribution via t-SNE shows a clear distinction between these
two types of encoders and confirm the supremacy of the semantic one, whilst the
decoded samples of these two types of autoencoders exhibit faint dissimilarity
either objectively or subjectively. Based on this observation, we consider
adversarial attacks to learning algorithms that rely on the latent
representation obtained via autoencoders. It turns out that latent contents of
adversarial samples constructed from semantic encoder with deliberate wrong
label information exhibit different distribution compared with that of the
original input data, while both of these samples manifest very marginal
difference. This new way of attack set up by our work is worthy of attention
due to the necessity to secure the widespread deep learning applications.
- Abstract(参考訳): オートエンコーダは入力データの適切な潜在表現を生じさせるが、入力データの本質的な性質にのみ依存する表現は通常、いくつかの意味情報を表現するために劣る。
典型的なケースは、これらの表現のクラスタリング時に明確な境界を形成することができないことである。
入力データの内容だけでなく、ラベル情報などの入力データの意味にも依存する潜在表現を符号化することにより、セマンティックオートエンコーダと呼ばれる拡張されたオートエンコーダアーキテクチャを提案する。
t-sneによる表現分布の実験は、これらの2種類のエンコーダの明確な区別を示し、セマンティックなエンコーダの優位性を確認する一方で、これらの2種類のオートエンコーダのデコードされたサンプルは客観的にも主観的にもかすかな相似性を示す。
この観察に基づいて,オートエンコーダによって得られる潜在表現に依存する学習アルゴリズムに対する逆攻撃を考える。
その結果,有意なラベル情報を持つセマンティックエンコーダから構築した敵対的サンプルの潜在内容は,元の入力データと異なる分布を示し,両者の差は非常に小さいことがわかった。
我々の研究によって構築されたこの新たな攻撃方法は、広範なディープラーニングアプリケーションを確保する必要性から、注目に値するものです。
関連論文リスト
- Sample what you cant compress [6.24979299238534]
拡散に基づく損失の下で、連続エンコーダとデコーダの学習方法を示す。
このアプローチは、GANベースのオートエンコーダと比較して、再構築品質が向上する。
また, 得られた表現は, 最先端のGANに基づく損失から得られた表現と比較して, 潜時拡散モデルによりモデル化し易いことを示す。
論文 参考訳(メタデータ) (2024-09-04T08:42:42Z) - Attribute-Aware Deep Hashing with Self-Consistency for Large-Scale
Fine-Grained Image Retrieval [65.43522019468976]
本稿では属性認識ハッシュコードを生成するための自己整合性を持つ属性認識ハッシュネットワークを提案する。
本研究では,高レベル属性固有ベクトルを教師なしで蒸留する再構成タスクのエンコーダ・デコーダ構造ネットワークを開発する。
我々のモデルは,これらの属性ベクトルに特徴デコリレーション制約を設けて,それらの代表的能力を強化する。
論文 参考訳(メタデータ) (2023-11-21T08:20:38Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Label Semantics for Few Shot Named Entity Recognition [68.01364012546402]
名前付きエンティティ認識におけるショットラーニングの問題について検討する。
我々は,ラベル名中の意味情報を,モデルに付加的な信号を与え,よりリッチな事前情報を与える手段として活用する。
本モデルは,第1エンコーダによって計算された名前付きエンティティの表現と,第2エンコーダによって計算されたラベル表現とを一致させることを学習する。
論文 参考訳(メタデータ) (2022-03-16T23:21:05Z) - Diffusion-Based Representation Learning [65.55681678004038]
教師付き信号のない表現学習を実現するために,デノナイズスコアマッチングフレームワークを拡張した。
対照的に、拡散に基づく表現学習は、デノナイジングスコアマッチング目的の新しい定式化に依存している。
同じ手法を用いて,半教師付き画像分類における最先端モデルの改善を実現する無限次元潜在符号の学習を提案する。
論文 参考訳(メタデータ) (2021-05-29T09:26:02Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Semi-supervised Autoencoding Projective Dependency Parsing [33.73819721400118]
半教師付きグラフベースの射影依存性解析のための2つのエンドツーエンド自動符号化モデルについて述べる。
どちらのモデルも、コンテキスト情報を利用して潜伏変数にエンコードできるディープニューラルネットワーク(DNN)と、入力を再構築可能な生成モデルであるデコーダの2つの部分で構成されている。
論文 参考訳(メタデータ) (2020-11-02T03:21:39Z) - Self-Supervised Bernoulli Autoencoders for Semi-Supervised Hashing [1.8899300124593648]
本稿では,変分オートエンコーダに基づくハッシュ手法のロバスト性と,監督の欠如について検討する。
本稿では,モデルがラベル分布予測を用いて一対の目的を実現する新しい監視手法を提案する。
実験の結果,いずれの手法もハッシュコードの品質を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-07-17T07:47:10Z) - Evidence-Aware Inferential Text Generation with Vector Quantised
Variational AutoEncoder [104.25716317141321]
本稿では,大規模なテキストコーパスからイベントの証拠を自動的に発見し,その証拠を利用して推論テキストの生成を導く手法を提案する。
このアプローチは、Event2MindとATOMICの両方のデータセットで最先端のパフォーマンスを提供します。
論文 参考訳(メタデータ) (2020-06-15T02:59:52Z) - Semi-Supervised Semantic Segmentation with Cross-Consistency Training [8.894935073145252]
セマンティックセグメンテーションのための新しいクロス一貫性に基づく半教師付きアプローチを提案する。
提案手法は,いくつかのデータセットにおける最先端結果を実現する。
論文 参考訳(メタデータ) (2020-03-19T20:10:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。