論文の概要: Vulnerability Analysis of Transformer-based Optical Character
Recognition to Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2311.17128v1
- Date: Tue, 28 Nov 2023 15:22:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 23:56:09.377666
- Title: Vulnerability Analysis of Transformer-based Optical Character
Recognition to Adversarial Attacks
- Title(参考訳): 逆攻撃に対する変圧器を用いた光文字認識の脆弱性解析
- Authors: Lucas Beerens and Desmond J. Higham
- Abstract要約: 我々は、標的攻撃と未目標攻撃の両方のアルゴリズムを開発し、評価する。
TrOCRは標的外攻撃に対して非常に脆弱であり、標的攻撃に対して若干脆弱でないことが判明した。
- 参考スコア(独自算出の注目度): 1.8130068086063336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in Optical Character Recognition (OCR) have been driven
by transformer-based models. OCR systems are critical in numerous high-stakes
domains, yet their vulnerability to adversarial attack remains largely
uncharted territory, raising concerns about security and compliance with
emerging AI regulations. In this work we present a novel framework to assess
the resilience of Transformer-based OCR (TrOCR) models. We develop and assess
algorithms for both targeted and untargeted attacks. For the untargeted case,
we measure the Character Error Rate (CER), while for the targeted case we use
the success ratio. We find that TrOCR is highly vulnerable to untargeted
attacks and somewhat less vulnerable to targeted attacks. On a benchmark
handwriting data set, untargeted attacks can cause a CER of more than 1 without
being noticeable to the eye. With a similar perturbation size, targeted attacks
can lead to success rates of around $25\%$ -- here we attacked single tokens,
requiring TrOCR to output the tenth most likely token from a large vocabulary.
- Abstract(参考訳): 光文字認識(OCR)の最近の進歩は、トランスフォーマーモデルによって駆動されている。
ocrシステムは多数の高リスクドメインにおいて極めて重要であるが、敵への攻撃に対する脆弱性は大部分が未解決の領域であり、セキュリティと新たなai規制への準拠に関する懸念が高まっている。
本稿では,Transformer-based OCR(TrOCR)モデルのレジリエンスを評価するための新しいフレームワークを提案する。
我々は,標的攻撃と非標的攻撃の両方に対するアルゴリズムを開発し,評価する。
未ターゲットの場合、キャラクタエラー率(CER)を測定し、対象の場合、成功率を使用します。
TrOCRは標的外攻撃に対して非常に脆弱であり、標的攻撃に対して若干脆弱でないことが判明した。
ベンチマーク手書きデータセットでは、標的外攻撃は目に見えることなく1以上のCERを引き起こす可能性がある。
同じような摂動サイズで、ターゲット攻撃は成功率約25\%$ -- ここで私たちは単一のトークンを攻撃し、大きな語彙から10番目の可能性を持つトークンを出力することをtrocrに要求しました。
関連論文リスト
- Asymmetric Bias in Text-to-Image Generation with Adversarial Attacks [23.940207705019777]
本稿では、攻撃成功率(ASR)に関連する要因の分析に焦点をあてる。
敵接尾辞と2つの勾配に基づく攻撃アルゴリズムを用いた新たな攻撃目標であるエンティティスワップを導入する。
敵の攻撃で成功確率が60%になる状況と、この確率が5%以下に低下する状況を見いだす。
論文 参考訳(メタデータ) (2023-12-22T05:10:32Z) - PRAT: PRofiling Adversarial aTtacks [52.693011665938734]
PRofiling Adversarial aTacks (PRAT) の新たな問題点について紹介する。
敵対的な例として、PRATの目的は、それを生成するのに使用される攻撃を特定することである。
AIDを用いてPRATの目的のための新しいフレームワークを考案する。
論文 参考訳(メタデータ) (2023-09-20T07:42:51Z) - On the feasibility of attacking Thai LPR systems with adversarial
examples [4.176752121302987]
本研究は,タイ語に特化したOCRシステムに対する敵攻撃の実現可能性について述べる。
本研究では,このシナリオがLPRアプリケーションにおいて極めて現実的であることを示す。
論文 参考訳(メタデータ) (2023-01-13T12:17:01Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Sequential Randomized Smoothing for Adversarially Robust Speech
Recognition [26.96883887938093]
我々の最強の防御力は、難聴のノイズを使用する全ての攻撃に対して堅牢であり、非常に高い歪みでしか破壊できないことを示す。
本稿では, 摂動に頑健なASRモデルを設計するために, 拡張やROVER投票といった音声固有のツールを活用することで, これらの課題を克服する。
論文 参考訳(メタデータ) (2021-11-05T21:51:40Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Detecting Adversarial Examples for Speech Recognition via Uncertainty
Quantification [21.582072216282725]
機械学習システム、特に自動音声認識(ASR)システムは、敵の攻撃に対して脆弱である。
本稿では,ハイブリッドASRシステムに着目し,攻撃時の不確実性を示す能力に関する4つの音響モデルを比較した。
我々は、受信演算子曲線スコア0.99以上の領域の逆例を検出することができる。
論文 参考訳(メタデータ) (2020-05-24T19:31:02Z) - Transferable, Controllable, and Inconspicuous Adversarial Attacks on
Person Re-identification With Deep Mis-Ranking [83.48804199140758]
システム出力のランキングを乱す学習とミスランクの定式化を提案する。
また,新たなマルチステージネットワークアーキテクチャを開発することで,バックボックス攻撃を行う。
そこで本手法では, 異なるマルチショットサンプリングにより, 悪意のある画素数を制御することができる。
論文 参考訳(メタデータ) (2020-04-08T18:48:29Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。