論文の概要: Camouflage is all you need: Evaluating and Enhancing Language Model
Robustness Against Camouflage Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2402.09874v1
- Date: Thu, 15 Feb 2024 10:58:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 16:05:14.647178
- Title: Camouflage is all you need: Evaluating and Enhancing Language Model
Robustness Against Camouflage Adversarial Attacks
- Title(参考訳): camouflage:camouflageadversarial attackに対する言語モデルの堅牢性の評価と強化
- Authors: \'Alvaro Huertas-Garc\'ia, Alejandro Mart\'in, Javier Huertas-Tato,
David Camacho
- Abstract要約: 自然言語処理(NLP)における敵攻撃の意義
本研究は、脆弱性評価とレジリエンス向上という2つの異なる段階において、この課題を体系的に探求する。
結果として、パフォーマンスとロバスト性の間のトレードオフが示唆され、いくつかのモデルは、ロバスト性を確保しながら、同様のパフォーマンスを維持している。
- 参考スコア(独自算出の注目度): 53.87300498478744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks represent a substantial challenge in Natural Language
Processing (NLP). This study undertakes a systematic exploration of this
challenge in two distinct phases: vulnerability evaluation and resilience
enhancement of Transformer-based models under adversarial attacks.
In the evaluation phase, we assess the susceptibility of three Transformer
configurations, encoder-decoder, encoder-only, and decoder-only setups, to
adversarial attacks of escalating complexity across datasets containing
offensive language and misinformation. Encoder-only models manifest a 14% and
21% performance drop in offensive language detection and misinformation
detection tasks, respectively. Decoder-only models register a 16% decrease in
both tasks, while encoder-decoder models exhibit a maximum performance drop of
14% and 26% in the respective tasks.
The resilience-enhancement phase employs adversarial training, integrating
pre-camouflaged and dynamically altered data. This approach effectively reduces
the performance drop in encoder-only models to an average of 5% in offensive
language detection and 2% in misinformation detection tasks. Decoder-only
models, occasionally exceeding original performance, limit the performance drop
to 7% and 2% in the respective tasks. Although not surpassing the original
performance, Encoder-decoder models can reduce the drop to an average of 6% and
2% respectively.
Results suggest a trade-off between performance and robustness, with some
models maintaining similar performance while gaining robustness. Our study and
adversarial training techniques have been incorporated into an open-source tool
for generating camouflaged datasets. However, methodology effectiveness depends
on the specific camouflage technique and data encountered, emphasizing the need
for continued exploration.
- Abstract(参考訳): 敵対的攻撃は自然言語処理(NLP)において重大な課題である。
本研究は,トランスフォーマーモデルに対する脆弱性評価とレジリエンス向上の2つの段階において,この課題を体系的に検討するものである。
評価段階において,エンコーダデコーダ,エンコーダのみ,デコーダのみの3つのトランスフォーマ構成が,攻撃言語や誤った情報を含むデータセットをまたいだ複雑さをエスカレートする敵意攻撃に対する感受性を評価する。
エンコーダのみのモデルは、それぞれ攻撃的な言語検出と誤情報検出タスクで14%と21%のパフォーマンス低下を示す。
デコーダのみのモデルでは両方のタスクが16%減少し、エンコーダ-デコーダモデルでは各タスクで14%と26%の最大パフォーマンス低下を示す。
レジリエンス強化フェーズでは、カモフラージュ前と動的に変化したデータを統合して、敵対的なトレーニングを行う。
このアプローチは,エンコーダのみのモデルの性能低下を,攻撃的言語検出では平均5%,誤情報検出では2%に効果的に低減する。
デコーダのみのモデルは、時折オリジナルのパフォーマンスを超え、各タスクのパフォーマンス低下を7%と2%に制限する。
オリジナルの性能を超えないが、Encoder-decoderモデルは、それぞれ6%と2%に低下を減少させることができる。
その結果、パフォーマンスとロバスト性の間のトレードオフが示唆され、いくつかのモデルはロバスト性を獲得しながら同様のパフォーマンスを維持している。
本研究は,カモフラージュしたデータセットを生成するためのオープンソースツールに組み込まれている。
しかし、方法論の有効性は特定のカモフラージュ技術と遭遇したデータに依存し、継続的な探索の必要性を強調している。
関連論文リスト
- Undermining Image and Text Classification Algorithms Using Adversarial Attacks [0.0]
本研究は,各種機械学習モデルを訓練し,GANとSMOTEを用いてテキスト分類モデルへの攻撃を目的とした追加データポイントを生成することにより,そのギャップを解消する。
実験の結果,分類モデルの重大な脆弱性が明らかとなった。特に,攻撃後の最上位のテキスト分類モデルの精度が20%低下し,顔認識精度が30%低下した。
論文 参考訳(メタデータ) (2024-11-03T18:44:28Z) - MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - A Fresh Take on Stale Embeddings: Improving Dense Retriever Training with Corrector Networks [81.2624272756733]
密集検索では、ディープエンコーダは入力とターゲットの両方に埋め込みを提供する。
我々は、古いキャッシュされたターゲット埋め込みを調整できる小さなパラメトリック補正ネットワークを訓練する。
私たちのアプローチは、トレーニング中にターゲット埋め込み更新が行われなくても、最先端の結果と一致します。
論文 参考訳(メタデータ) (2024-09-03T13:29:13Z) - CAMH: Advancing Model Hijacking Attack in Machine Learning [44.58778557522968]
Category-Agnostic Model Hijacking (CAMH) は、新しいモデルハイジャック攻撃法である。
クラス番号のミスマッチ、データ分散のばらつき、元のタスクとハイジャックタスクのパフォーマンスバランスの問題に対処する。
本研究は,本来のタスクの性能を最小限に抑えつつ,攻撃効果を実証するものである。
論文 参考訳(メタデータ) (2024-08-25T07:03:01Z) - Defense Against Adversarial Attacks using Convolutional Auto-Encoders [0.0]
敵攻撃は入力データを知覚不能な摂動で操作し、モデルがデータを誤分類したり、誤出力を発生させたりする。
この研究は、敵攻撃に対する標的モデルの堅牢性を高めることに基づいている。
論文 参考訳(メタデータ) (2023-12-06T14:29:16Z) - Self-Distilled Masked Auto-Encoders are Efficient Video Anomaly
Detectors [117.61449210940955]
ビデオフレームレベルで適用された軽量マスク付きオートエンコーダ(AE)に基づく効率的な異常事象検出モデルを提案する。
動き勾配に基づく重みトークンへのアプローチを導入し、静的背景シーンから前景オブジェクトへ焦点を移す。
トレーニングビデオの強化のために合成異常事象を生成し,マスク付きAEモデルを用いてオリジナルのフレームを共同で再構築する。
論文 参考訳(メタデータ) (2023-06-21T06:18:05Z) - LegoNet: A Fast and Exact Unlearning Architecture [59.49058450583149]
機械学習は、トレーニングされたモデルから削除された要求に対する特定のトレーニングサンプルの影響を削除することを目的としている。
固定エンコーダ+複数アダプタのフレームワークを採用した新しいネットワークである textitLegoNet を提案する。
我々は、LegoNetが許容できる性能を維持しつつ、高速かつ正確な未学習を実現し、未学習のベースラインを総合的に上回っていることを示す。
論文 参考訳(メタデータ) (2022-10-28T09:53:05Z) - Efficient Decoder-free Object Detection with Transformers [75.00499377197475]
視覚変換器(ViT)は、物体検出アプローチのランドスケープを変化させている。
本稿では,デコーダフリー完全トランス(DFFT)オブジェクト検出器を提案する。
DFFT_SMALLは、トレーニングおよび推論段階で高い効率を達成する。
論文 参考訳(メタデータ) (2022-06-14T13:22:19Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。