論文の概要: Lethean Attack: An Online Data Poisoning Technique
- arxiv url: http://arxiv.org/abs/2011.12355v1
- Date: Tue, 24 Nov 2020 20:23:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 14:22:05.962520
- Title: Lethean Attack: An Online Data Poisoning Technique
- Title(参考訳): Lethean攻撃: オンラインデータ中毒技術
- Authors: Eyal Perry
- Abstract要約: オンラインモデル上で破滅的な忘れを誘発する新しいデータ中毒手法であるLethean Attackを紹介した。
以上の結果から,テストタイムトレーニングモデルをコインフリップ精度に戻すことが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data poisoning is an adversarial scenario where an attacker feeds a specially
crafted sequence of samples to an online model in order to subvert learning. We
introduce Lethean Attack, a novel data poisoning technique that induces
catastrophic forgetting on an online model. We apply the attack in the context
of Test-Time Training, a modern online learning framework aimed for
generalization under distribution shifts. We present the theoretical rationale
and empirically compare it against other sample sequences that naturally induce
forgetting. Our results demonstrate that using lethean attacks, an adversary
could revert a test-time training model back to coin-flip accuracy performance
using a short sample sequence.
- Abstract(参考訳): データ中毒は、攻撃者が学習を覆すために特別に作られたサンプルをオンラインモデルにフィードする逆シナリオである。
オンラインモデル上で破滅的な忘れを誘発する新しいデータ中毒手法であるLethean Attackを紹介した。
この攻撃を,分散シフト下での一般化を目的とした近代オンライン学習フレームワークであるTest-Time Trainingの文脈に応用する。
理論的な理論的根拠を示し,それを自然に忘れてしまう他のサンプル配列と比較する。
その結果,lethean攻撃を用いて,テスト時のトレーニングモデルを,短いサンプルシーケンスを用いてcoin-flip精度に戻すことができた。
関連論文リスト
- GenFighter: A Generative and Evolutive Textual Attack Removal [6.044610337297754]
自然言語処理(NLP)におけるTransformerモデルのような、ディープニューラルネットワーク(DNN)に対するアドリラルアタックは大きな課題となる。
本稿では,訓練分類分布の学習と推論によって敵の堅牢性を高める新しい防衛戦略であるGenFighterを紹介する。
我々は、GenFighterが攻撃および攻撃成功率の指標の下で、最先端の防御能力より優れていることを示す。
論文 参考訳(メタデータ) (2024-04-17T16:32:13Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - First to Possess His Statistics: Data-Free Model Extraction Attack on
Tabular Data [0.0]
本稿では,実用的なデータフリー環境下でのTEMPESTと呼ばれる新しいモデル抽出攻撃を提案する。
実験により、我々の攻撃は以前の攻撃と同等のパフォーマンスを達成できることが示された。
本稿では,TEMPESTを実世界において医療診断実験により実施する可能性について論じる。
論文 参考訳(メタデータ) (2021-09-30T05:30:12Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - DaST: Data-free Substitute Training for Adversarial Attacks [55.76371274622313]
本研究では,敵対的ブラックボックス攻撃の代替モデルを得るためのデータフリー代替訓練法(DaST)を提案する。
これを実現するため、DaSTは特別に設計されたGANを用いて代替モデルを訓練する。
実験では、代替モデルがベースラインモデルと比較して競争性能を発揮することを示した。
論文 参考訳(メタデータ) (2020-03-28T04:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。