論文の概要: $\beta$-Variational Classifiers Under Attack
- arxiv url: http://arxiv.org/abs/2008.09010v1
- Date: Thu, 20 Aug 2020 14:57:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 02:47:15.374642
- Title: $\beta$-Variational Classifiers Under Attack
- Title(参考訳): 攻撃対象の$\beta$-variational分類器
- Authors: Marco Maggipinto and Matteo Terzi and Gian Antonio Susto
- Abstract要約: 正しく分類された入力データを不知覚に修正する小さな逆方向の摂動を合成することができ、ネットワークはそれを自信を持って誤分類する。
これにより、頑丈さを改善したり、摂動の存在を検知しようとする様々な方法が生まれている。
本研究は, モデル生成部に関する新たな知見とともに, その堅牢性と検出能力について考察する。
- 参考スコア(独自算出の注目度): 6.574517227976925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural networks have gained lots of attention in recent years thanks to
the breakthroughs obtained in the field of Computer Vision. However, despite
their popularity, it has been shown that they provide limited robustness in
their predictions. In particular, it is possible to synthesise small
adversarial perturbations that imperceptibly modify a correctly classified
input data, making the network confidently misclassify it. This has led to a
plethora of different methods to try to improve robustness or detect the
presence of these perturbations. In this paper, we perform an analysis of
$\beta$-Variational Classifiers, a particular class of methods that not only
solve a specific classification task, but also provide a generative component
that is able to generate new samples from the input distribution. More in
details, we study their robustness and detection capabilities, together with
some novel insights on the generative part of the model.
- Abstract(参考訳): 近年のDeep Neural Networkは、コンピュータビジョンの分野で得られたブレークスルーによって、多くの注目を集めている。
しかし、その人気にもかかわらず、予測に限定的な堅牢性をもたらすことが示されている。
特に、正しく分類された入力データを暗黙的に修正する小さな敵の摂動を合成することができ、ネットワークはそれを自信を持って誤分類する。
これにより、頑丈さを改善したり、摂動の存在を検知しようとする様々な方法が生まれている。
本稿では、特定の分類タスクを解くだけでなく、入力分布から新しいサンプルを生成することができる生成成分を提供する、特定のメソッドのクラスである$\beta$-Variational Classifiersの分析を行う。
より詳しくは、モデルの生成部分に関する新しい知見とともに、それらの堅牢性と検出能力について研究する。
関連論文リスト
- Evaluating the Robustness of Deep-Learning Algorithm-Selection Models by Evolving Adversarial Instances [0.16874375111244325]
ディープ畳み込みネットワーク(DNN)は、ニューラルネットワークドメインにおけるアルゴリズム選択の実行にますます利用されている。
逆のサンプルは、データセットによって元のインスタンスの最大56%から生成される。
進化的アルゴリズム(EA)を用いて、2つの既存のベンチマークからオンラインビンパッキングのためのインスタンスの摂動を見つけ、トレーニングされたDRNを誤分類させます。
論文 参考訳(メタデータ) (2024-06-24T12:48:44Z) - Sparse and Transferable Universal Singular Vectors Attack [5.498495800909073]
そこで本研究では, よりスムーズなホワイトボックス対逆攻撃を提案する。
我々のアプローチは、ジャコビアン行列の隠れた層の$(p,q)$-singularベクトルにスパーシティを提供するトラルキャットパワーに基づいている。
本研究は,攻撃をスパースする最先端モデルの脆弱性を実証し,堅牢な機械学習システムの開発の重要性を強調した。
論文 参考訳(メタデータ) (2024-01-25T09:21:29Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Efficient and Robust Classification for Sparse Attacks [34.48667992227529]
我々は、画像認識、自然言語処理、マルウェア検出の領域において効果的な攻撃として示されてきた$ell$-normで束縛された摂動を考える。
我々は,「トランケーション」と「アドリアル・トレーニング」を組み合わせた新しい防衛手法を提案する。
得られた洞察に触発され、これらのコンポーネントをニューラルネットワーク分類器に拡張する。
論文 参考訳(メタデータ) (2022-01-23T21:18:17Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Novelty Detection via Contrastive Learning with Negative Data
Augmentation [34.39521195691397]
新規性検出のための新しい生成ネットワークフレームワークを提案する。
我々のモデルは最先端のノベルティ検出器よりも優れている。
我々のモデルは、他の敵ベースノベルティ検出方法と比較して、非敵方式で訓練するためにより安定している。
論文 参考訳(メタデータ) (2021-06-18T07:26:15Z) - An Orthogonal Classifier for Improving the Adversarial Robustness of
Neural Networks [21.13588742648554]
近年の研究では、分類層に特定の変更を加えることで、ニューラルネットワークの堅牢性を向上させることが示されている。
我々は、成分が同じ大きさの高密度直交重み行列を明示的に構築し、新しいロバストな分類器を生み出す。
我々の方法は、多くの最先端の防衛アプローチに対して効率的で競争力がある。
論文 参考訳(メタデータ) (2021-05-19T13:12:14Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Open Set Recognition with Conditional Probabilistic Generative Models [51.40872765917125]
オープンセット認識のための条件付き確率生成モデル(CPGM)を提案する。
CPGMは未知のサンプルを検出できるが、異なる潜在特徴を条件付きガウス分布に近似させることで、既知のクラスを分類できる。
複数のベンチマークデータセットの実験結果から,提案手法がベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2020-08-12T06:23:49Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。