論文の概要: Attacks on Online Learners: a Teacher-Student Analysis
- arxiv url: http://arxiv.org/abs/2305.11132v1
- Date: Thu, 18 May 2023 17:26:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 13:50:35.386286
- Title: Attacks on Online Learners: a Teacher-Student Analysis
- Title(参考訳): オンライン学習者の攻撃:教師-学生分析
- Authors: Riccardo Giuseppe Margiotta, Sebastian Goldt, Guido Sanguinetti
- Abstract要約: 本稿では,オンライン学習環境における機械学習モデルに対する敵対的攻撃事例について検討する。
攻撃強度が臨界しきい値を超えると,学習者の精度が不連続に変化することが証明される。
以上の結果から,特にデータストリームを小さなバッチで処理した場合,強欲な攻撃は極めて効果的であることが示唆された。
- 参考スコア(独自算出の注目度): 7.00422423634143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are famously vulnerable to adversarial attacks: small
ad-hoc perturbations of the data that can catastrophically alter the model
predictions. While a large literature has studied the case of test-time attacks
on pre-trained models, the important case of attacks in an online learning
setting has received little attention so far. In this work, we use a
control-theoretical perspective to study the scenario where an attacker may
perturb data labels to manipulate the learning dynamics of an online learner.
We perform a theoretical analysis of the problem in a teacher-student setup,
considering different attack strategies, and obtaining analytical results for
the steady state of simple linear learners. These results enable us to prove
that a discontinuous transition in the learner's accuracy occurs when the
attack strength exceeds a critical threshold. We then study empirically attacks
on learners with complex architectures using real data, confirming the insights
of our theoretical analysis. Our findings show that greedy attacks can be
extremely efficient, especially when data stream in small batches.
- Abstract(参考訳): 機械学習モデルは、敵対的な攻撃に弱いことで有名だ。
多くの文献が事前訓練されたモデルに対するテストタイム攻撃について研究しているが、オンライン学習環境における攻撃の重要事例は今のところほとんど注目されていない。
本研究では,攻撃者がデータラベルを摂動させてオンライン学習者の学習力学を操作できるシナリオを,制御理論の観点から研究する。
本研究は,教師と教師の学習環境において,異なる攻撃戦略を考慮し,問題の理論的解析を行い,単純な線形学習者の定常状態に対する解析結果を得る。
これらの結果から,攻撃強度が臨界しきい値を超えると,学習者の精度が不連続になることを示すことができる。
次に、実データを用いて複雑なアーキテクチャを持つ学習者に対する経験的攻撃を研究し、理論解析の知見を確認する。
その結果、特に小さなバッチでデータストリームを行う場合、欲深い攻撃は極めて効率的であることが分かりました。
関連論文リスト
- Understanding Data Importance in Machine Learning Attacks: Does Valuable Data Pose Greater Harm? [23.2883929808036]
5つの異なる攻撃タイプを解析することにより,データ重要度と機械学習攻撃との関係について検討する。
例えば、高重要性データサンプルは、メンバーシップ推論やモデル盗難などの特定の攻撃において、脆弱性が増大していることを観察する。
これらの知見は、実用性最大化と価値あるデータの保護のバランスを崩す革新的な防衛機構の緊急の必要性を強調している。
論文 参考訳(メタデータ) (2024-09-05T17:54:26Z) - Analyzing the Impact of Adversarial Examples on Explainable Machine
Learning [0.31498833540989407]
敵対的攻撃は機械学習モデルに対する攻撃の一種であり、攻撃者は入力を意図的に修正し、モデルに誤った予測をさせる。
ディープラーニングモデルと敵攻撃の脆弱性に取り組むことで、モデルに望まないことを予測させるサンプルを非常に簡単に作成できることが示されています。
本研究では,テキスト分類問題に対する逆攻撃によるモデル解釈可能性の影響を解析する。
論文 参考訳(メタデータ) (2023-07-17T08:50:36Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Interpretable and Effective Reinforcement Learning for Attacking against
Graph-based Rumor Detection [12.726403718158082]
ソーシャルネットワークは噂によって汚染され、機械学習モデルによって検出される。
ある種の脆弱性は、グラフへの依存と疑わしいランキングによるものである。
ブラックボックス検出器を用いて、強化学習が効果的かつ解釈可能な攻撃ポリシーを学習できるように、依存関係をキャプチャする機能を設計する。
論文 参考訳(メタデータ) (2022-01-15T10:06:29Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。