論文の概要: Overparameterized Linear Regression under Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2204.06274v1
- Date: Wed, 13 Apr 2022 09:50:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-14 18:45:26.926002
- Title: Overparameterized Linear Regression under Adversarial Attacks
- Title(参考訳): 逆行性攻撃による過パラメータ線形回帰
- Authors: Ant\^onio H. Ribeiro and Thomas B. Sch\"on
- Abstract要約: 敵攻撃時の線形回帰の誤差について検討した。
線形モデルに機能を追加することは、さらなる堅牢性や脆性の原因になる可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning models start to be used in critical applications, their
vulnerabilities and brittleness become a pressing concern. Adversarial attacks
are a popular framework for studying these vulnerabilities. In this work, we
study the error of linear regression in the face of adversarial attacks. We
provide bounds of the error in terms of the traditional risk and the parameter
norm and show how these bounds can be leveraged and make it possible to use
analysis from non-adversarial setups to study the adversarial risk. The
usefulness of these results is illustrated by shedding light on whether or not
overparameterized linear models can be adversarially robust. We show that
adding features to linear models might be either a source of additional
robustness or brittleness. We show that these differences appear due to scaling
and how the $\ell_1$ and $\ell_2$ norms of random projections concentrate. We
also show how the reformulation we propose allows for solving adversarial
training as a convex optimization problem. This is then used as a tool to study
how adversarial training and other regularization methods might affect the
robustness of the estimated models.
- Abstract(参考訳): 機械学習モデルが重要なアプリケーションで使われるようになると、その脆弱性と脆さが懸念される。
敵攻撃はこれらの脆弱性を研究するための一般的なフレームワークである。
本研究では, 対向攻撃の面における線形回帰の誤差について検討する。
従来のリスクとパラメータ規範の観点で誤差の境界を提供し、これらの境界をどのように活用できるかを示し、非敵対的な設定から分析して敵のリスクを研究することができる。
これらの結果の有用性は, 過パラメータ線形モデルが可逆的ロバストであるか否かについて光を当てることで示される。
線形モデルに機能を追加することは、さらなる堅牢性や脆さの源になる可能性がある。
これらの違いは、スケーリングとランダム射影の$\ell_1$と$\ell_2$ノルムの集中性に起因する。
また,本提案手法は,凸最適化問題として,逆訓練をいかに解くかを示す。
これは、敵の訓練やその他の正規化手法が推定モデルの堅牢性にどのように影響するかを研究するためのツールとして使用される。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Regularization for Adversarial Robust Learning [18.46110328123008]
我々は,$phi$-divergence正規化を分散ロバストなリスク関数に組み込む,対角訓練のための新しい手法を開発した。
この正規化は、元の定式化と比較して計算の顕著な改善をもたらす。
本研究では,教師付き学習,強化学習,文脈学習において提案手法の有効性を検証し,様々な攻撃に対して最先端の性能を示す。
論文 参考訳(メタデータ) (2024-08-19T03:15:41Z) - The Surprising Harmfulness of Benign Overfitting for Adversarial
Robustness [13.120373493503772]
根拠的真理そのものが敵の例に対して堅牢であるとしても、標準のアウト・オブ・サンプルのリスク目標の観点から見れば、明らかに過適合なモデルは良性である、という驚くべき結果が証明されます。
我々の発見は、実際に観察されたパズリング現象に関する理論的洞察を与え、真の標的関数(例えば、人間)は副次的攻撃に対して堅牢であり、一方、当初過適合のニューラルネットワークは、堅牢でないモデルに導かれる。
論文 参考訳(メタデータ) (2024-01-19T15:40:46Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Parameters or Privacy: A Provable Tradeoff Between Overparameterization
and Membership Inference [29.743945643424553]
オーバーパラメータ化モデルは、トレーニングデータ(トレーニングデータではゼロエラー)を記憶するように訓練された場合でも、うまく(テストデータでは小さなエラー)一般化する。
このことが、パラメータ化されたモデル(例えばディープラーニング)をますます超越する武器競争に繋がった。
論文 参考訳(メタデータ) (2022-02-02T19:00:21Z) - Benign Overfitting in Adversarially Robust Linear Classification [91.42259226639837]
分類器がノイズの多いトレーニングデータを記憶しながらも、優れた一般化性能を達成している「双曲オーバーフィッティング」は、機械学習コミュニティにおいて大きな注目を集めている。
本研究は, 対人訓練において, 対人訓練において, 良心過剰が実際に発生することを示し, 対人訓練に対する防御の原則的アプローチを示す。
論文 参考訳(メタデータ) (2021-12-31T00:27:31Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Asymptotic Behavior of Adversarial Training in Binary Classification [41.7567932118769]
敵の訓練は、敵の攻撃に対する防衛の最先端の方法と考えられている。
実際に成功したにもかかわらず、敵の訓練のパフォーマンスを理解する上でのいくつかの問題は未解決のままである。
2進分類における対角訓練の最小化のための正確な理論的予測を導出する。
論文 参考訳(メタデータ) (2020-10-26T01:44:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。