論文の概要: Unique properties of adversarially trained linear classifiers on
Gaussian data
- arxiv url: http://arxiv.org/abs/2006.03873v1
- Date: Sat, 6 Jun 2020 14:06:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 21:23:07.462549
- Title: Unique properties of adversarially trained linear classifiers on
Gaussian data
- Title(参考訳): ガウスデータに基づく逆学習線形分類器の特異性
- Authors: Jamie Hayes
- Abstract要約: 対人学習研究コミュニティは 対人摂動の根本原因を理解するために 顕著な進歩を遂げています
現実のデータセットに洞察が移ることを期待して、単純な問題に対する逆向きに頑健な学習理論を開発することが一般的である。
特に線形分類器を用いて、任意のレベルの逆汚職の下でガウスデータの二項分類問題を解くことは常に可能であることを示す。
- 参考スコア(独自算出の注目度): 13.37805637358556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are vulnerable to adversarial perturbations, that
when added to an input, can cause high confidence misclassifications. The
adversarial learning research community has made remarkable progress in the
understanding of the root causes of adversarial perturbations. However, most
problems that one may consider important to solve for the deployment of machine
learning in safety critical tasks involve high dimensional complex manifolds
that are difficult to characterize and study. It is common to develop
adversarially robust learning theory on simple problems, in the hope that
insights will transfer to `real world datasets'. In this work, we discuss a
setting where this approach fails. In particular, we show with a linear
classifier, it is always possible to solve a binary classification problem on
Gaussian data under arbitrary levels of adversarial corruption during training,
and that this property is not observed with non-linear classifiers on the
CIFAR-10 dataset.
- Abstract(参考訳): 機械学習モデルは敵の摂動に弱いため、入力に追加されると高い信頼性の誤分類を引き起こす可能性がある。
敵対的学習研究コミュニティは、敵対的摂動の根本原因の理解において顕著な進歩を遂げている。
しかしながら、安全クリティカルなタスクに機械学習を展開するために解決することが重要であると考えるほとんどの問題は、特徴付けや研究が難しい高次元複素多様体を含む。
単純な問題に対して逆向きに頑健な学習理論を開発することは一般的であり、洞察が「現実世界のデータセット」に移行することを期待する。
本稿では,このアプローチが失敗する状況について論じる。
特に線形分類器を用いて学習中に任意のレベルの逆汚職の下でガウスデータのバイナリ分類問題を解くことができ、この性質はCIFAR-10データセット上の非線形分類器では観測されない。
関連論文リスト
- How adversarial attacks can disrupt seemingly stable accurate
classifiers [80.2657717174889]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Benign Overfitting in Adversarially Robust Linear Classification [91.42259226639837]
分類器がノイズの多いトレーニングデータを記憶しながらも、優れた一般化性能を達成している「双曲オーバーフィッティング」は、機械学習コミュニティにおいて大きな注目を集めている。
本研究は, 対人訓練において, 対人訓練において, 良心過剰が実際に発生することを示し, 対人訓練に対する防御の原則的アプローチを示す。
論文 参考訳(メタデータ) (2021-12-31T00:27:31Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Robustifying Binary Classification to Adversarial Perturbation [45.347651499585055]
本稿では,対向摂動を伴う二分分類の問題について考察する。
データを操作する際の敵の力を考慮に入れたマックスマージン分類器に一般化を導入する。
損失関数に関するいくつかの軽微な仮定の下では、勾配降下がその方向のRM分類器に収束することを理論的に示す。
論文 参考訳(メタデータ) (2020-10-29T07:20:37Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - The Devil is the Classifier: Investigating Long Tail Relation
Classification with Decoupling Analysis [36.298869931803836]
ロングテール関係分類は、ヘッドクラスがトレーニングフェーズを支配しているため、難しい問題である。
そこで本研究では,関係を自動的に集約することで,ソフトウェイトを割り当てる,注意関係ルーティング付きロバストな分類器を提案する。
論文 参考訳(メタデータ) (2020-09-15T12:47:00Z) - Robust Machine Learning via Privacy/Rate-Distortion Theory [34.28921458311185]
ロバストな機械学習の定式化は、敵対的な例に対するディープニューラルネットワークの一般的な脆弱性に対処するために現れている。
我々の研究は、最適ロバスト学習とプライバシ・ユーティリティ・トレードオフ問題との関連性を引き合いに出し、これは率歪み問題の一般化である。
この情報理論的な観点は、堅牢性とクリーンなデータパフォーマンスの基本的なトレードオフに光を当てています。
論文 参考訳(メタデータ) (2020-07-22T21:34:59Z) - Learning perturbation sets for robust machine learning [97.6757418136662]
我々は、潜在空間の制約領域上に設定された摂動を定義する条件生成器を用いる。
学習した摂動集合の質を定量的かつ質的に測定する。
我々は、学習した摂動集合を利用して、敵画像の破損や逆光の変動に対して経験的かつ確実に堅牢なモデルを訓練する。
論文 参考訳(メタデータ) (2020-07-16T16:39:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。