論文の概要: Actor-Critic Network for Q&A in an Adversarial Environment
- arxiv url: http://arxiv.org/abs/2201.00455v1
- Date: Mon, 3 Jan 2022 02:35:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 13:11:06.014876
- Title: Actor-Critic Network for Q&A in an Adversarial Environment
- Title(参考訳): 敵環境におけるQ&Aのためのアクター・クリティカルネットワーク
- Authors: Bejan Sadeghian
- Abstract要約: 2つの重要な領域は、これらの状況に対するトレーニングや、内部で堅牢性を構築するために既存のアーキテクチャを変更する目的で、敵対的なデータを生成することである。
本稿では,これら2つのアイデアを組み合わさって,ほぼ強化学習フレームワークで使用する批評家モデルを訓練するアプローチを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Significant work has been placed in the Q&A NLP space to build models that
are more robust to adversarial attacks. Two key areas of focus are in
generating adversarial data for the purposes of training against these
situations or modifying existing architectures to build robustness within. This
paper introduces an approach that joins these two ideas together to train a
critic model for use in an almost reinforcement learning framework. Using the
Adversarial SQuAD "Add One Sent" dataset we show that there are some promising
signs for this method in protecting against Adversarial attacks.
- Abstract(参考訳): 敵の攻撃に対してより堅牢なモデルを構築するために、Q&A NLPスペースに重要な作業が置かれている。
2つの重要な領域は、これらの状況に対するトレーニングや、内部で堅牢性を構築するために既存のアーキテクチャを変更する目的で、敵対的なデータを生成することである。
本稿では,これら2つのアイデアを組み合わさって,ほぼ強化学習フレームワークで使用する批評家モデルを訓練するアプローチを紹介する。
Adversarial SQuAD "Add One Sent"データセットを使用して、Adversarial攻撃に対する防御において、この手法にはいくつかの有望な兆候があることを示す。
関連論文リスト
- ROSAR: An Adversarial Re-Training Framework for Robust Side-Scan Sonar Object Detection [0.3774866290142281]
本稿では、サイドスキャンソナー(SSS)画像に適したオブジェクト検出モデルの堅牢性を高めるフレームワークであるROSARを紹介する。
我々は3つの新しい公開SSSデータセットを導入し、異なるソナー設定とノイズ条件をキャプチャする。
ROSARはSSS固有の条件下でのモデルロバスト性および検出精度を大幅に改善し、モデルのロバスト性は最大1.85%向上した。
論文 参考訳(メタデータ) (2024-10-14T14:33:14Z) - Robust Image Classification: Defensive Strategies against FGSM and PGD Adversarial Attacks [0.0]
敵対的攻撃は、画像分類におけるディープラーニングモデルの堅牢性に重大な脅威をもたらす。
本稿では,ニューラルネットワークのレジリエンスを高めるために,これらの攻撃に対する防御機構を探索し,洗練する。
論文 参考訳(メタデータ) (2024-08-20T02:00:02Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Improving the Robustness of Object Detection and Classification AI models against Adversarial Patch Attacks [2.963101656293054]
我々は攻撃手法を解析し、堅牢な防御手法を提案する。
我々は,物体形状,テクスチャ,位置を利用する逆パッチ攻撃を用いて,モデル信頼度を20%以上下げることに成功した。
敵攻撃にも拘わらず,本手法はモデルレジリエンスを著しく向上させ,高精度かつ信頼性の高いローカライゼーションを実現している。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - JAB: Joint Adversarial Prompting and Belief Augmentation [81.39548637776365]
我々は,ブラックボックスターゲットモデルの強靭性を,敵対的プロンプトと信念の増大を通じて探索し,改善する共同枠組みを導入する。
このフレームワークは、自動的なレッド・チームリング手法を用いてターゲットモデルを探索し、信念強化器を用いて目標モデルの命令を生成し、敵のプローブに対するロバスト性を向上させる。
論文 参考訳(メタデータ) (2023-11-16T00:35:54Z) - Introducing Foundation Models as Surrogate Models: Advancing Towards
More Practical Adversarial Attacks [15.882687207499373]
箱なしの敵攻撃は、AIシステムにとってより実用的で難しいものになりつつある。
本稿では,サロゲートモデルとして基礎モデルを導入することにより,逆攻撃を下流タスクとして再放送する。
論文 参考訳(メタデータ) (2023-07-13T08:10:48Z) - ADC: Adversarial attacks against object Detection that evade Context
consistency checks [55.8459119462263]
文脈整合性チェックさえも、適切に構築された敵の例に対して脆弱であることを示す。
このような防御を覆す実例を生成するための適応型フレームワークを提案する。
我々の結果は、コンテキストを堅牢にモデル化し、一貫性をチェックする方法はまだ未解決の問題であることを示している。
論文 参考訳(メタデータ) (2021-10-24T00:25:09Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。