論文の概要: OpenAttack: An Open-source Textual Adversarial Attack Toolkit
- arxiv url: http://arxiv.org/abs/2009.09191v2
- Date: Fri, 24 Sep 2021 08:29:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 20:52:21.479263
- Title: OpenAttack: An Open-source Textual Adversarial Attack Toolkit
- Title(参考訳): openattack: オープンソースのtextual adversarial attackツールキット
- Authors: Guoyang Zeng, Fanchao Qi, Qianrui Zhou, Tingji Zhang, Zixian Ma, Bairu
Hou, Yuan Zang, Zhiyuan Liu, Maosong Sun
- Abstract要約: 本稿では,これらの問題を解決するために,OpenAttackというオープンソースのテキスト逆攻撃ツールキットを提案する。
OpenAttackには、すべての攻撃タイプ、多言語性、並列処理をサポートする独自の長所がある。
- 参考スコア(独自算出の注目度): 73.22185718706602
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Textual adversarial attacking has received wide and increasing attention in
recent years. Various attack models have been proposed, which are enormously
distinct and implemented with different programming frameworks and settings.
These facts hinder quick utilization and fair comparison of attack models. In
this paper, we present an open-source textual adversarial attack toolkit named
OpenAttack to solve these issues. Compared with existing other textual
adversarial attack toolkits, OpenAttack has its unique strengths in support for
all attack types, multilinguality, and parallel processing. Currently,
OpenAttack includes 15 typical attack models that cover all attack types. Its
highly inclusive modular design not only supports quick utilization of existing
attack models, but also enables great flexibility and extensibility. OpenAttack
has broad uses including comparing and evaluating attack models, measuring
robustness of a model, assisting in developing new attack models, and
adversarial training. Source code and documentation can be obtained at
https://github.com/thunlp/OpenAttack.
- Abstract(参考訳): テキストによる敵対的な攻撃は近年、広く注目を集めている。
さまざまなアタックモデルが提案されており、異なるプログラミングフレームワークや設定で実装されている。
これらの事実は攻撃モデルの迅速な利用と公正な比較を妨げる。
本稿では,これらの問題を解決するために,OpenAttackというオープンソースのテキスト逆攻撃ツールキットを提案する。
既存のtextual adversarial attack toolkitsと比較して、openattackには、すべての攻撃タイプ、マルチ言語性、並列処理をサポートする独自の強みがある。
現在、OpenAttackには、すべての攻撃タイプをカバーする15の典型的な攻撃モデルが含まれている。
その高度に包括的なモジュール設計は、既存の攻撃モデルの迅速な利用だけでなく、柔軟性と拡張性も実現している。
openattackには、攻撃モデルの比較と評価、モデルの堅牢性の測定、新しい攻撃モデルの開発の支援、敵のトレーニングなど、幅広い用途がある。
ソースコードとドキュメントはhttps://github.com/thunlp/openattackで入手できる。
関連論文リスト
- BB-Patch: BlackBox Adversarial Patch-Attack using Zeroth-Order Optimization [10.769992215544358]
敵の攻撃戦略は、敵が訓練データ、モデルパラメータ、配置中の入力にアクセスすることを前提としている。
入力画像のどこにでも適用可能な敵パッチを生成するブラックボックスの敵攻撃戦略を提案する。
論文 参考訳(メタデータ) (2024-05-09T18:42:26Z) - Are aligned neural networks adversarially aligned? [93.91072860401856]
敵のユーザは、アライメントの試みを回避できるインプットを構築できる。
既存のNLPベースの最適化攻撃は、整列したテキストモデルを確実に攻撃するには不十分であることを示す。
我々は、NLP攻撃の改善が、テキストのみのモデルに対して、同じレベルの逆制御を示す可能性があると推測する。
論文 参考訳(メタデータ) (2023-06-26T17:18:44Z) - Two-in-One: A Model Hijacking Attack Against Text Generation Models [19.826236952700256]
我々は,異なるテキスト分類タスクを複数の世代にハイジャックできる新しいモデルハイジャック攻撃であるDittoを提案する。
提案手法は,Dittoを用いてテキスト生成モデルをハイジャックし,その利便性を損なうことなく実現可能であることを示す。
論文 参考訳(メタデータ) (2023-05-12T12:13:27Z) - MultiRobustBench: Benchmarking Robustness Against Multiple Attacks [86.70417016955459]
機械学習(ML)モデルに対するマルチアタックを検討するための,最初の統一フレームワークを提案する。
我々のフレームワークは、テストタイムの敵について異なるレベルの学習者の知識をモデル化することができる。
9種類の攻撃に対して16種類の防御モデルの有効性を評価した。
論文 参考訳(メタデータ) (2023-02-21T20:26:39Z) - Generative Dynamic Patch Attack [6.1863763890100065]
我々は、エンドツーエンドのパッチアタックアルゴリズム、Generative Dynamic Patch Attack (GDPA)を提案する。
GDPAは、各入力画像に対して、パッチパターンとパッチ位置の両方を逆向きに生成する。
VGGFace、Traffic Sign、ImageNetの実験によると、GDPAは最先端のパッチ攻撃よりも高い攻撃成功率を達成する。
論文 参考訳(メタデータ) (2021-11-08T04:15:34Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。