論文の概要: Unique properties of adversarially trained linear classifiers on
Gaussian data
- arxiv url: http://arxiv.org/abs/2006.03873v1
- Date: Sat, 6 Jun 2020 14:06:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 21:23:07.462549
- Title: Unique properties of adversarially trained linear classifiers on
Gaussian data
- Title(参考訳): ガウスデータに基づく逆学習線形分類器の特異性
- Authors: Jamie Hayes
- Abstract要約: 対人学習研究コミュニティは 対人摂動の根本原因を理解するために 顕著な進歩を遂げています
現実のデータセットに洞察が移ることを期待して、単純な問題に対する逆向きに頑健な学習理論を開発することが一般的である。
特に線形分類器を用いて、任意のレベルの逆汚職の下でガウスデータの二項分類問題を解くことは常に可能であることを示す。
- 参考スコア(独自算出の注目度): 13.37805637358556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are vulnerable to adversarial perturbations, that
when added to an input, can cause high confidence misclassifications. The
adversarial learning research community has made remarkable progress in the
understanding of the root causes of adversarial perturbations. However, most
problems that one may consider important to solve for the deployment of machine
learning in safety critical tasks involve high dimensional complex manifolds
that are difficult to characterize and study. It is common to develop
adversarially robust learning theory on simple problems, in the hope that
insights will transfer to `real world datasets'. In this work, we discuss a
setting where this approach fails. In particular, we show with a linear
classifier, it is always possible to solve a binary classification problem on
Gaussian data under arbitrary levels of adversarial corruption during training,
and that this property is not observed with non-linear classifiers on the
CIFAR-10 dataset.
- Abstract(参考訳): 機械学習モデルは敵の摂動に弱いため、入力に追加されると高い信頼性の誤分類を引き起こす可能性がある。
敵対的学習研究コミュニティは、敵対的摂動の根本原因の理解において顕著な進歩を遂げている。
しかしながら、安全クリティカルなタスクに機械学習を展開するために解決することが重要であると考えるほとんどの問題は、特徴付けや研究が難しい高次元複素多様体を含む。
単純な問題に対して逆向きに頑健な学習理論を開発することは一般的であり、洞察が「現実世界のデータセット」に移行することを期待する。
本稿では,このアプローチが失敗する状況について論じる。
特に線形分類器を用いて学習中に任意のレベルの逆汚職の下でガウスデータのバイナリ分類問題を解くことができ、この性質はCIFAR-10データセット上の非線形分類器では観測されない。
関連論文リスト
- Empirical Perturbation Analysis of Linear System Solvers from a Data Poisoning Perspective [16.569765598914152]
本稿では,入力データの誤りが,敵攻撃に共通する摂動下での線形システム解法による解の適合誤差と精度に与える影響について検討する。
我々は2つの異なる知識レベルによるデータ摂動を提案し、毒素最適化を開発し、ラベル誘導摂動(LP)と無条件摂動(UP)という2つの摂動方法を研究する。
データ中毒の場合のように、データが意図的に摂動している状況下では、異なる種類の解法がこれらの摂動にどのように反応するかを理解し、異なる種類の敵攻撃によって最も影響を受けるアルゴリズムを特定する。
論文 参考訳(メタデータ) (2024-10-01T17:14:05Z) - Robust optimization for adversarial learning with finite sample complexity guarantees [1.8434042562191815]
本稿では,線形・非線形な分類問題に着目し,ロバストな分類器に対する新しい逆学習法を提案する。
データ駆動型レンズの下ではロバスト性があり、線形および非線形の分類器の2進および複数クラスシナリオにおける有限標本複雑性境界を導出する。
線形および非線形モデルに対する線形計画法 (LP) と2次コーン計画法 (SOCP) を用いて, 最悪のサロゲート損失を最小限に抑えるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-22T13:49:53Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Benign Overfitting in Adversarially Robust Linear Classification [91.42259226639837]
分類器がノイズの多いトレーニングデータを記憶しながらも、優れた一般化性能を達成している「双曲オーバーフィッティング」は、機械学習コミュニティにおいて大きな注目を集めている。
本研究は, 対人訓練において, 対人訓練において, 良心過剰が実際に発生することを示し, 対人訓練に対する防御の原則的アプローチを示す。
論文 参考訳(メタデータ) (2021-12-31T00:27:31Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Robust Machine Learning via Privacy/Rate-Distortion Theory [34.28921458311185]
ロバストな機械学習の定式化は、敵対的な例に対するディープニューラルネットワークの一般的な脆弱性に対処するために現れている。
我々の研究は、最適ロバスト学習とプライバシ・ユーティリティ・トレードオフ問題との関連性を引き合いに出し、これは率歪み問題の一般化である。
この情報理論的な観点は、堅牢性とクリーンなデータパフォーマンスの基本的なトレードオフに光を当てています。
論文 参考訳(メタデータ) (2020-07-22T21:34:59Z) - Learning perturbation sets for robust machine learning [97.6757418136662]
我々は、潜在空間の制約領域上に設定された摂動を定義する条件生成器を用いる。
学習した摂動集合の質を定量的かつ質的に測定する。
我々は、学習した摂動集合を利用して、敵画像の破損や逆光の変動に対して経験的かつ確実に堅牢なモデルを訓練する。
論文 参考訳(メタデータ) (2020-07-16T16:39:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。