論文の概要: On the feasibility of attacking Thai LPR systems with adversarial
examples
- arxiv url: http://arxiv.org/abs/2301.05506v1
- Date: Fri, 13 Jan 2023 12:17:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 14:25:07.204719
- Title: On the feasibility of attacking Thai LPR systems with adversarial
examples
- Title(参考訳): 逆例によるタイのLPRシステム攻撃の可能性について
- Authors: Chissanupong Jiamsuchon, Jakapan Suaboot, Norrathep Rattanavipanon
- Abstract要約: 本研究は,タイ語に特化したOCRシステムに対する敵攻撃の実現可能性について述べる。
本研究では,このシナリオがLPRアプリケーションにおいて極めて現実的であることを示す。
- 参考スコア(独自算出の注目度): 4.176752121302987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in deep neural networks (DNNs) have significantly enhanced
the capabilities of optical character recognition (OCR) technology, enabling
its adoption to a wide range of real-world applications. Despite this success,
DNN-based OCR is shown to be vulnerable to adversarial attacks, in which the
adversary can influence the DNN model's prediction by carefully manipulating
input to the model. Prior work has demonstrated the security impacts of
adversarial attacks on various OCR languages. However, to date, no studies have
been conducted and evaluated on an OCR system tailored specifically for the
Thai language. To bridge this gap, this work presents a feasibility study of
performing adversarial attacks on a specific Thai OCR application -- Thai
License Plate Recognition (LPR). Moreover, we propose a new type of adversarial
attack based on the \emph{semi-targeted} scenario and show that this scenario
is highly realistic in LPR applications. Our experimental results show the
feasibility of our attacks as they can be performed on a commodity computer
desktop with over 90% attack success rate.
- Abstract(参考訳): 近年のディープニューラルネットワーク(DNN)の進歩により、光学文字認識(OCR)技術の能力が大幅に向上し、幅広い現実世界のアプリケーションに採用されている。
この成功にもかかわらず、DNNベースのOCRは敵攻撃に対して脆弱であり、敵はモデルへの入力を慎重に操作することで、DNNモデルの予測に影響を与える可能性がある。
以前の研究は、様々なocr言語に対する敵対的攻撃のセキュリティへの影響を実証した。
しかし、タイ語に特化されたOCRシステムについて、これまでに研究や評価は行われていない。
このギャップを埋めるために、この研究は特定のタイ OCR アプリケーション -- タイライセンスプレート認識 (LPR) に対する敵攻撃を実行するための実現可能性研究を示す。
さらに,emph{semi-targeted} シナリオに基づく新しいタイプの敵攻撃を提案し,このシナリオが LPR アプリケーションにおいて極めて現実的であることを示す。
実験の結果,90%以上の攻撃成功率を持つ汎用コンピュータデスクトップ上で実行可能であることから,攻撃の可能性が示された。
関連論文リスト
- Rethinking Targeted Adversarial Attacks For Neural Machine Translation [56.10484905098989]
本報告では,NMTが標的とする敵攻撃に対して,信頼性の高い攻撃結果をもたらす可能性のある新たな設定を提案する。
新しい設定では、敵の例を作成するためのTWGA(Targeted Word Gradient Adversarial Attack)手法を提案する。
実験の結果,提案手法はNMTシステムに対する敵攻撃に対して忠実な攻撃効果をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-07T10:16:06Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Evaluating and Safeguarding the Adversarial Robustness of Retrieval-Based In-Context Learning [21.018893978967053]
In-Context Learning (ICL) は、プロンプトでデモをエンコードするために使用される選択、順序、動詞に敏感である。
Retrieval-Augmented ICLメソッドは、レトリバーを活用して、意味論的に関連する例を例示として抽出することで、この問題に対処しようとする。
本研究は, 検索強化モデルにより, 検体攻撃に対する堅牢性が向上することを明らかにする。
そこで本研究では,攻撃したサンプルを用いてサンプルプールを充実させる,効果的な訓練自由対人防御手法であるDARDを導入する。
論文 参考訳(メタデータ) (2024-05-24T23:56:36Z) - Problem space structural adversarial attacks for Network Intrusion Detection Systems based on Graph Neural Networks [8.629862888374243]
本稿では,ネットワーク侵入検知におけるGNNに適した敵攻撃の最初の形式化を提案する。
我々は、現実のシナリオにおいて、実行可能な構造攻撃を実行するために、攻撃者が考慮すべき問題空間の制約を概説し、モデル化する。
以上の結果から,古典的特徴に基づく攻撃に対するモデルの堅牢性の向上が示唆された。
論文 参考訳(メタデータ) (2024-03-18T14:40:33Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z) - Vulnerability Analysis of Transformer-based Optical Character
Recognition to Adversarial Attacks [1.8130068086063336]
我々は、標的攻撃と未目標攻撃の両方のアルゴリズムを開発し、評価する。
TrOCRは標的外攻撃に対して非常に脆弱であり、標的攻撃に対して若干脆弱でないことが判明した。
論文 参考訳(メタデータ) (2023-11-28T15:22:23Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。