論文の概要: When Vision Fails: Text Attacks Against ViT and OCR
- arxiv url: http://arxiv.org/abs/2306.07033v1
- Date: Mon, 12 Jun 2023 11:26:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 15:00:43.949896
- Title: When Vision Fails: Text Attacks Against ViT and OCR
- Title(参考訳): ViTとOCRに対するテキスト攻撃、ビジョンが失敗したとき
- Authors: Nicholas Boucher, Jenny Blessing, Ilia Shumailov, Ross Anderson,
Nicolas Papernot
- Abstract要約: テキストベース機械学習モデルは、テキストとして符号化された視覚的敵の例に対して、まだ脆弱であることを示す。
ブラックボックス設定において、遺伝的アルゴリズムを用いて視覚的敵の例を生成する方法を示す。
我々は、Facebook、Microsoft、IBM、Googleが発行したプロダクションモデルに対する敵対的な例を作成することで、これらの攻撃の有効性を実世界で実証する。
- 参考スコア(独自算出の注目度): 25.132777620934768
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While text-based machine learning models that operate on visual inputs of
rendered text have become robust against a wide range of existing attacks, we
show that they are still vulnerable to visual adversarial examples encoded as
text. We use the Unicode functionality of combining diacritical marks to
manipulate encoded text so that small visual perturbations appear when the text
is rendered. We show how a genetic algorithm can be used to generate visual
adversarial examples in a black-box setting, and conduct a user study to
establish that the model-fooling adversarial examples do not affect human
comprehension. We demonstrate the effectiveness of these attacks in the real
world by creating adversarial examples against production models published by
Facebook, Microsoft, IBM, and Google.
- Abstract(参考訳): テキストベースの機械学習モデルは、レンダリングされたテキストの視覚的な入力で動作するが、既存の攻撃に対して頑健である一方で、テキストとして符号化された視覚的敵の例に対して脆弱であることを示す。
我々は、暗号テキストを操作するためにダイアクリティカルマークを組み合わせるUnicode機能を使用し、テキストのレンダリング時に小さな視覚的摂動が現れるようにします。
遺伝的アルゴリズムを用いて,ブラックボックス設定で視覚的に逆行する例を生成する方法を示し,モデル食品の逆行例は人間の理解に影響を与えないことを示す。
我々は、Facebook、Microsoft、IBM、Googleが発行したプロダクションモデルに対する敵対的な例を作成することで、これらの攻撃の有効性を実世界で実証する。
関連論文リスト
- SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - I See Dead People: Gray-Box Adversarial Attack on Image-To-Text Models [0.0]
我々は、画像からテキストへのグレーボックスの逆攻撃を、未ターゲティングとターゲットの両方に提示する。
攻撃はグレーボックス方式で実行され、デコーダモジュールに関する知識は不要です。
また、私たちの攻撃は人気のあるオープンソースプラットフォームHugging Faceを騙していることも示しています。
論文 参考訳(メタデータ) (2023-06-13T07:35:28Z) - Character-Aware Models Improve Visual Text Rendering [57.19915686282047]
現在の画像生成モデルは、十分に整形されたビジュアルテキストを生成するのに苦労している。
文字認識モデルは、新しい綴りタスクに大きな利益をもたらす。
われわれのモデルでは、ビジュアルスペルの精度は比較的高く、稀な単語の競合よりも30以上の精度が向上した。
論文 参考訳(メタデータ) (2022-12-20T18:59:23Z) - Vision-Language Pre-Training for Boosting Scene Text Detectors [57.08046351495244]
シーンテキスト検出に視覚言語を用いた共同学習を特に応用する。
本稿では,視覚言語による事前学習を通して,文脈化された共同表現を学習することを提案する。
事前訓練されたモデルは、よりリッチなセマンティクスでより情報的な表現を生成することができる。
論文 参考訳(メタデータ) (2022-04-29T03:53:54Z) - Language Matters: A Weakly Supervised Pre-training Approach for Scene
Text Detection and Spotting [69.77701325270047]
本稿では,シーンテキストを効果的に表現できる弱教師付き事前学習手法を提案する。
本ネットワークは,画像エンコーダと文字認識型テキストエンコーダから構成され,視覚的特徴とテキスト的特徴を抽出する。
実験により、事前訓練されたモデルは、重みを他のテキスト検出やスポッティングネットワークに転送しながら、Fスコアを+2.5%、+4.8%改善することが示された。
論文 参考訳(メタデータ) (2022-03-08T08:10:45Z) - Bad Characters: Imperceptible NLP Attacks [16.357959724298745]
敵対的な例のクラスは、ブラックボックスの設定でテキストベースのモデルを攻撃するために使用することができる。
単一の知覚不可能なエンコーディングインジェクションでは、攻撃者は脆弱なモデルの性能を大幅に低下させることができる。
弊社の攻撃は、MicrosoftやGoogleなど、現在展開中の商用システムに対するものだ。
論文 参考訳(メタデータ) (2021-06-18T03:42:56Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - Adversarial Watermarking Transformer: Towards Tracing Text Provenance
with Data Hiding [80.3811072650087]
自然言語の透かしを防御として研究し,テキストの出所の発見と追跡に役立てる。
本稿では,適応型透かし変換器(AWT)とエンコーダ・デコーダ・デコーダを併用した対向型透かし変換器(AWT)について述べる。
AWTは、テキストにデータを隠蔽する最初のエンドツーエンドモデルである。
論文 参考訳(メタデータ) (2020-09-07T11:01:24Z) - Visual Attack and Defense on Text [18.513619521807286]
テキストの文字を視覚的に類似した文字に修正すると、検査システムやその他の条件を騙すためにスパムに悩まされることが多い。
我々は、通常のテキストを理解する能力を失うことなく、攻撃を防御するためのビジョンベースモデルと敵の訓練を謝罪する。
論文 参考訳(メタデータ) (2020-08-07T15:44:58Z) - BAE: BERT-based Adversarial Examples for Text Classification [9.188318506016898]
我々は,BERTマスマスキング言語モデルからコンテキスト摂動を用いて,敵の例を生成するブラックボックス攻撃であるBAEを提案する。
BAEは, 文法性やセマンティック・コヒーレンスを向上した逆例を生成することに加えて, より強力な攻撃を行うことを示す。
論文 参考訳(メタデータ) (2020-04-04T16:25:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。