論文の概要: Don't be a Fool: Pooling Strategies in Offensive Language Detection from User-Intended Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2403.15467v1
- Date: Wed, 20 Mar 2024 06:28:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 22:41:56.476766
- Title: Don't be a Fool: Pooling Strategies in Offensive Language Detection from User-Intended Adversarial Attacks
- Title(参考訳): Don't be a Fool: Pooling Strategies in Offensive Language Detection from User-Intended Adversarial Attacks (特集:ユビキタス・アタック)
- Authors: Seunguk Yu, Juhwan Choi, Youngbin Kim,
- Abstract要約: 悪意のあるユーザは、しばしばテキストノイズを伴ってフィルタリングシステムを避けようとする。
本稿では, 特別なシンボルを挿入したり, 韓国語の特徴を利用するユーザ意図の敵攻撃として, これらの回避策を提案する。
提案する攻撃に対する防御策として,単純かつ効果的なプール戦略をレイヤワイズで導入する。
- 参考スコア(独自算出の注目度): 7.480124826347168
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Offensive language detection is an important task for filtering out abusive expressions and improving online user experiences. However, malicious users often attempt to avoid filtering systems through the involvement of textual noises. In this paper, we propose these evasions as user-intended adversarial attacks that insert special symbols or leverage the distinctive features of the Korean language. Furthermore, we introduce simple yet effective pooling strategies in a layer-wise manner to defend against the proposed attacks, focusing on the preceding layers not just the last layer to capture both offensiveness and token embeddings. We demonstrate that these pooling strategies are more robust to performance degradation even when the attack rate is increased, without directly training of such patterns. Notably, we found that models pre-trained on clean texts could achieve a comparable performance in detecting attacked offensive language, to models pre-trained on noisy texts by employing these pooling strategies.
- Abstract(参考訳): 攻撃的な言語検出は、虐待的な表現をフィルタリングし、オンラインユーザエクスペリエンスを改善するための重要なタスクである。
しかし、悪意のあるユーザは、しばしばテキストノイズを伴ってフィルタリングシステムを避けようとする。
本稿では,特別なシンボルを挿入したり,韓国語の特徴を活かしたユーザ意図の敵対攻撃として,これらの回避法を提案する。
さらに,提案する攻撃に対する防御策として,攻撃性とトークン埋め込みの両面を捉えるため,最終層だけでなく,前層にも焦点をあてた簡易かつ効果的なプーリング戦略を導入する。
このようなパターンを直接訓練することなく、攻撃速度が向上しても、これらのプーリング戦略は性能劣化に対してより堅牢であることを示す。
特に、クリーンテキストで事前学習したモデルは、これらのプーリング戦略を用いて、ノイズテキストで事前学習したモデルに対して、攻撃攻撃言語を検出する上で同等のパフォーマンスを得ることができた。
関連論文リスト
- Learning diverse attacks on large language models for robust red-teaming and safety tuning [126.32539952157083]
レッドチーム、あるいは有害な応答を誘発するプロンプトの特定は、大きな言語モデルの安全なデプロイを保証するための重要なステップである。
新規性と多様性を優先する明確な規則化であっても、既存のアプローチはモード崩壊または効果的な攻撃を発生させることができないことを示す。
我々は,GFlowNetの微調整と二次平滑化フェーズを用いて,多種多様な効果的な攻撃プロンプトを生成するために攻撃モデルを訓練することを提案する。
論文 参考訳(メタデータ) (2024-05-28T19:16:17Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Large Language Models Are Better Adversaries: Exploring Generative
Clean-Label Backdoor Attacks Against Text Classifiers [25.94356063000699]
バックドア攻撃は、トレーニングとテストデータに無害なトリガーを挿入することで、モデル予測を操作する。
我々は、敵のトレーニング例を正しくラベル付けした、より現実的でより困難なクリーンラベル攻撃に焦点を当てる。
私たちの攻撃であるLLMBkdは言語モデルを利用して、さまざまなスタイルベースのトリガをテキストに自動的に挿入します。
論文 参考訳(メタデータ) (2023-10-28T06:11:07Z) - Adversarial Text Normalization [2.9434930072968584]
逆テキスト正規化器は、少ない計算オーバーヘッドで攻撃されたコンテンツのベースライン性能を回復する。
テキスト正規化は文字レベルの攻撃に対してタスクに依存しない防御を提供する。
論文 参考訳(メタデータ) (2022-06-08T19:44:03Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Identifying Adversarial Attacks on Text Classifiers [32.958568467774704]
本稿では,その生成にどの方法が使われたかを決定するために,逆テキストを解析する。
最初のコントリビューションは、攻撃検出とラベル付けのための広範なデータセットです。
第2のコントリビューションとして、このデータセットを使用して、攻撃識別のための多くの分類器を開発し、ベンチマークします。
論文 参考訳(メタデータ) (2022-01-21T06:16:04Z) - Learning-based Hybrid Local Search for the Hard-label Textual Attack [53.92227690452377]
我々は,攻撃者が予測ラベルにのみアクセス可能な,滅多に調査されていないが厳格な設定,すなわちハードラベル攻撃を考える。
そこで本研究では,Learning-based Hybrid Local Search (LHLS)アルゴリズムという,新たなハードラベル攻撃を提案する。
我々のLHLSは、攻撃性能と敵の品質に関する既存のハードラベル攻撃を著しく上回っている。
論文 参考訳(メタデータ) (2022-01-20T14:16:07Z) - Putting words into the system's mouth: A targeted attack on neural
machine translation using monolingual data poisoning [50.67997309717586]
本稿では、悪意のある敵が、バックトランスレーションを用いて訓練されたシステムのトレーニングセットに、モノリンガルテキストの少量の有毒サンプルを挿入する中毒攻撃を提案する。
このサンプルは、パドリング誤報のような特定の標的となる翻訳行動を引き起こすように設計されている。
有毒な例を作るための2つの方法を示し、トレーニングセットの0.02%にしか満たない少数の事例しか、攻撃を成功させるには不十分であることを示した。
論文 参考訳(メタデータ) (2021-07-12T08:07:09Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Adversarial Stylometry in the Wild: Transferable Lexical Substitution
Attacks on Author Profiling [13.722693312120462]
敵対的スタイメトグラフィーは、著者のテキストを書き換えることでそのようなモデルを攻撃しようとする。
本研究は、これらの敵対的攻撃を野生に展開するためのいくつかのコンポーネントを提案する。
論文 参考訳(メタデータ) (2021-01-27T10:42:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。