論文の概要: VertAttack: Taking advantage of Text Classifiers' horizontal vision
- arxiv url: http://arxiv.org/abs/2404.08538v1
- Date: Fri, 12 Apr 2024 15:32:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 14:37:30.581961
- Title: VertAttack: Taking advantage of Text Classifiers' horizontal vision
- Title(参考訳): VertAttack: Text Classifiersの水平ビジョンを活用する
- Authors: Jonathan Rusert,
- Abstract要約: VertAttackは、5つのデータセットで4つの異なるトランスフォーマーモデルの精度を大幅に下げることができる。
クラウドワーカーは、オリジナルのテキストの81%に比べて77%の混乱したテキストを正しくラベル付けできる。
- 参考スコア(独自算出の注目度): 11.648568745295695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text classification systems have continuously improved in performance over the years. However, nearly all current SOTA classifiers have a similar shortcoming, they process text in a horizontal manner. Vertically written words will not be recognized by a classifier. In contrast, humans are easily able to recognize and read words written both horizontally and vertically. Hence, a human adversary could write problematic words vertically and the meaning would still be preserved to other humans. We simulate such an attack, VertAttack. VertAttack identifies which words a classifier is reliant on and then rewrites those words vertically. We find that VertAttack is able to greatly drop the accuracy of 4 different transformer models on 5 datasets. For example, on the SST2 dataset, VertAttack is able to drop RoBERTa's accuracy from 94 to 13%. Furthermore, since VertAttack does not replace the word, meaning is easily preserved. We verify this via a human study and find that crowdworkers are able to correctly label 77% perturbed texts perturbed, compared to 81% of the original texts. We believe VertAttack offers a look into how humans might circumvent classifiers in the future and thus inspire a look into more robust algorithms.
- Abstract(参考訳): テキスト分類システムは、長年にわたって継続的に性能を改善してきた。
しかし、現在のほとんどのSOTA分類器も同様の欠点があり、テキストを水平に処理する。
垂直に書かれた単語は分類器によって認識されない。
対照的に、人間は水平と垂直の両方に書かれた単語を容易に認識し、読み取ることができる。
したがって、人間の敵は問題のある言葉を垂直に書くことができ、その意味はいまだに他の人間に残されることになる。
私たちはそのような攻撃をシミュレートします。
VertAttackは、分類器が依存している単語を特定し、それらの単語を垂直に書き直す。
VertAttackは5つのデータセット上で4つの異なるトランスフォーマーモデルの精度を大幅に低下させることができる。
例えば、SST2データセットでは、VertAttackはRoBERTaの精度を94から13%に下げることができる。
さらに、VertAttackは単語を置き換えないので、簡単に保存できる。
我々はこれを人間による研究で検証し、クラウドワーカーはオリジナルのテキストの81%に比べて77%の混乱したテキストを正しくラベル付けできることがわかった。
VertAttackは、人間が将来分類を回避し、より堅牢なアルゴリズムに目を向ける方法を示していると信じています。
関連論文リスト
- On Adversarial Examples for Text Classification by Perturbing Latent Representations [0.0]
テキスト分類における逆例に対して,ディープラーニングは脆弱であることを示す。
この弱点は、ディープラーニングがそれほど堅牢ではないことを示している。
我々は,テキスト分類器の頑健性を測定するフレームワークを,分類器の勾配を用いて構築する。
論文 参考訳(メタデータ) (2024-05-06T18:45:18Z) - Don't Retrain, Just Rewrite: Countering Adversarial Perturbations by
Rewriting Text [40.491180210205556]
我々は、敵入力をインターセプトし、非敵入力に書き換えるモデルATINTERを提案する。
実験の結果,ATINTERは既存の防御手法よりも優れた敵の堅牢性を提供するのに有効であることが判明した。
論文 参考訳(メタデータ) (2023-05-25T19:42:51Z) - Language Model Classifier Aligns Better with Physician Word Sensitivity
than XGBoost on Readmission Prediction [86.15787587540132]
語彙レベルでモデルの振る舞いを精査する尺度である感度スコアを導入する。
本実験は,感度スコアのランク相関に基づいて,臨床医と分類医の意思決定論理を比較した。
論文 参考訳(メタデータ) (2022-11-13T23:59:11Z) - Data-Driven Mitigation of Adversarial Text Perturbation [1.3649494534428743]
本研究では,NLPモデルを逆テキスト摂動に対して堅牢にするための難読化パイプラインを提案する。
CW2Vの埋め込みは、文字nグラムに基づく埋め込みよりも、テキストの摂動に対してより堅牢であることを示す。
我々のパイプラインはエンゲージメントベイト分類を0.70から0.67AUCに分類し、敵対的なテキストの摂動を発生させる。
論文 参考訳(メタデータ) (2022-02-19T00:49:12Z) - Revisiting Self-Training for Few-Shot Learning of Language Model [61.173976954360334]
ラベル付きデータにはタスク関連情報が豊富に含まれており、言語モデルの素早い学習に有用であることが証明されている。
本研究では,言語モデルファインチューニングのための自己学習手法を再検討し,最先端のプロンプトベースの少ショット学習者,SFLMを提案する。
論文 参考訳(メタデータ) (2021-10-04T08:51:36Z) - Semantic-Preserving Adversarial Text Attacks [85.32186121859321]
深層モデルの脆弱性を調べるために, Bigram と Unigram を用いた適応的セマンティック保存最適化法 (BU-SPO) を提案する。
提案手法は,既存手法と比較して最小の単語数を変更することで,攻撃成功率とセマンティックス率を最大化する。
論文 参考訳(メタデータ) (2021-08-23T09:05:18Z) - Attacking Text Classifiers via Sentence Rewriting Sampler [12.25764838264699]
general sentence rewriting sampler(srs)フレームワークは、条件付きで有意義な文を生成することができる。
本手法は,意味的類似度と文質を高く保ちつつ,複数の方法で原文を効果的に書き換えることができる。
提案手法は,7つのデータセットのうち4つで攻撃成功率を向上し,7つのデータセットの文質も大幅に向上した。
論文 参考訳(メタデータ) (2021-04-17T05:21:35Z) - Span Pointer Networks for Non-Autoregressive Task-Oriented Semantic
Parsing [55.97957664897004]
seq2seq、非自動回帰的、タスク指向を構築するための効果的なレシピは、3つのステップで発話とセマンティックフレームをマッピングする。
これらのモデルは通常、長さ予測によってボトルネックとなる。
本研究では,デコードタスクをテキスト生成からスパン予測へシフトさせる非自己回帰手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T07:02:35Z) - FIND: Human-in-the-Loop Debugging Deep Text Classifiers [55.135620983922564]
隠れた機能を無効にすることで、人間がディープラーニングテキスト分類器をデバッグできるフレームワークであるFINDを提案する。
実験により、人間はFINDを使用することで、異なる種類の不完全なデータセットの下で訓練されたCNNテキスト分類器を改善することができる。
論文 参考訳(メタデータ) (2020-10-10T12:52:53Z) - Visually Grounded Compound PCFGs [65.04669567781634]
言語理解のための視覚的基盤の爆発は、最近多くの注目を集めている。
本研究では,視覚的な文法誘導について検討し,未ラベルテキストとその視覚的キャプションから選挙区を学習する。
論文 参考訳(メタデータ) (2020-09-25T19:07:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。