論文の概要: Adversarial Attacks and Defense on Texts: A Survey
- arxiv url: http://arxiv.org/abs/2005.14108v3
- Date: Sun, 14 Jun 2020 04:58:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 05:10:26.410416
- Title: Adversarial Attacks and Defense on Texts: A Survey
- Title(参考訳): テキストによる敵対的攻撃と防御:調査
- Authors: Aminul Huq, Mst. Tasnim Pervin
- Abstract要約: 近年、深層学習モデルは、モデルに誤分類を強いるノイズに弱いことが示されている。
本書では,より包括的アイデアを提供するために,様々な攻撃手法と様々な防御モデルを蓄積,分析した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models have been used widely for various purposes in recent
years in object recognition, self-driving cars, face recognition, speech
recognition, sentiment analysis, and many others. However, in recent years it
has been shown that these models possess weakness to noises which force the
model to misclassify. This issue has been studied profoundly in the image and
audio domain. Very little has been studied on this issue concerning textual
data. Even less survey on this topic has been performed to understand different
types of attacks and defense techniques. In this manuscript, we accumulated and
analyzed different attacking techniques and various defense models to provide a
more comprehensive idea. Later we point out some of the interesting findings of
all papers and challenges that need to be overcome to move forward in this
field.
- Abstract(参考訳): 近年、ディープラーニングモデルは、物体認識、自動運転車、顔認識、音声認識、感情分析など、様々な目的で広く利用されている。
しかし、近年、これらのモデルには、モデルに誤分類を強いるノイズに対する弱さがあることが示されている。
この問題は画像領域と音声領域で深く研究されている。
テキストデータに関するこの問題についてはほとんど研究されていない。
様々な種類の攻撃や防御技術を理解するために、このトピックに関する調査はさらに少ない。
本書では,より包括的アイデアを提供するために,様々な攻撃手法と様々な防御モデルを蓄積,分析した。
その後、この分野を前進させるために克服する必要があるすべての論文や課題から興味深い発見を指摘します。
関連論文リスト
- Adversarial Attacks and Defenses on Text-to-Image Diffusion Models: A Survey [14.430120388340457]
テキストから画像への拡散モデルであるStable Diffusionは、リリースからわずか2ヶ月で1000万人以上のユーザーを集めた。
本稿では,テキスト・ツー・イメージ拡散モデルを対象とした敵攻撃と防御に関する文献のレビューを行う。
次に、モデルロバスト性および安全性を向上させるため、現行の防御手法の詳細な分析を行う。
論文 参考訳(メタデータ) (2024-07-10T13:50:31Z) - Masked Modeling for Self-supervised Representation Learning on Vision
and Beyond [69.64364187449773]
仮面モデリングは、トレーニング中に比例的にマスキングされる元のデータの一部を予測する、独特なアプローチとして現れてきた。
マスクモデリングにおけるテクニックの詳細については,多様なマスキング戦略,ターゲット回復,ネットワークアーキテクチャなどについて詳述する。
我々は、現在の手法の限界について議論し、マスクモデリング研究を進めるためのいくつかの道のりを指摘した。
論文 参考訳(メタデータ) (2023-12-31T12:03:21Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - Adversarial Attacks and Defenses on 3D Point Cloud Classification: A
Survey [28.21038594191455]
優れた成果にもかかわらず、ディープラーニングアルゴリズムは敵の攻撃に対して脆弱である。
本稿では,まず,敵攻撃の原理と特徴を紹介し,敵の事例生成手法を要約し,分析する。
また、データ重視およびモデル重視の方法で組織された防衛戦略の概要も提供する。
論文 参考訳(メタデータ) (2023-07-01T11:46:36Z) - How Deep Learning Sees the World: A Survey on Adversarial Attacks &
Defenses [0.0]
本稿では、攻撃能力によってグループ化された最新の敵攻撃と、防御戦略によってクラスタ化された現代の防御をコンパイルする。
また、視覚変換器に関する新たな進歩を提示し、敵対的設定の文脈で使用されるデータセットとメトリクスを要約し、異なる攻撃下での最先端の結果を比較し、オープンな問題の特定で終了する。
論文 参考訳(メタデータ) (2023-05-18T10:33:28Z) - Deep Learning for Visual Speech Analysis: A Survey [54.53032361204449]
本稿では,視覚音声分析におけるディープラーニング手法の最近の進歩を概観する。
私たちは、基本的な問題、課題、ベンチマークデータセット、既存のメソッドの分類、最先端のパフォーマンスなど、視覚音声のさまざまな側面をカバーしています。
論文 参考訳(メタデータ) (2022-05-22T14:44:53Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Threat of Adversarial Attacks on Deep Learning in Computer Vision:
Survey II [86.51135909513047]
ディープラーニングは、予測を操作できる敵攻撃に対して脆弱である。
本稿では,ディープラーニングに対する敵対的攻撃におけるコンピュータビジョンコミュニティの貢献を概観する。
この領域では、非専門家に技術的な用語の定義を提供する。
論文 参考訳(メタデータ) (2021-08-01T08:54:47Z) - Adversarial Machine Learning in Text Analysis and Generation [1.116812194101501]
本論文では,テキスト解析と生成における対比機械学習の側面と研究動向について考察する。
本稿は,ganアルゴリズム,モデル,攻撃の種類,これらの攻撃に対する防御など,この分野の主要な研究動向を要約する。
論文 参考訳(メタデータ) (2021-01-14T04:37:52Z) - Adversarial Attacks and Defenses: An Interpretation Perspective [80.23908920686625]
敵の攻撃と防御に関する最近の研究、特に機械学習の解釈の観点から概観する。
モデル解釈(モデル解釈、英: model interpretation)または解釈可能な機械学習(英: interpretable machine learning)の目標は、モデルの動作メカニズムに対する人間の理解可能な用語を抽出することである。
それぞれの解釈に対して、敵の攻撃や防御にどのように使用できるかについて詳述する。
論文 参考訳(メタデータ) (2020-04-23T23:19:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。