論文の概要: Adversarial sample generation and training using geometric masks for
accurate and resilient license plate character recognition
- arxiv url: http://arxiv.org/abs/2311.12857v1
- Date: Wed, 25 Oct 2023 01:17:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 00:19:01.535320
- Title: Adversarial sample generation and training using geometric masks for
accurate and resilient license plate character recognition
- Title(参考訳): 高精度・弾力性のあるナンバープレート文字認識のための幾何マスクを用いた逆サンプル生成と訓練
- Authors: Bishal Shrestha, Griwan Khakurel, Kritika Simkhada, Badri Adhikari
- Abstract要約: 本研究は,ナンバープレート文字を識別するレジリエントな手法を開発する。
最初のステップとして、ネパールの160台の車両から1057個の文字画像を抽出し、標準の深層畳み込みニューラルネットワークを訓練し、99.5%の文字分類精度を得た。
次に、幾何学的にマスキングされた画像を生成し、付加することでデータセットを豊かにし、モデルを再訓練し、モデルの予測を調査した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reading dirty license plates accurately in moving vehicles is challenging for
automatic license plate recognition systems. Moreover, license plates are often
intentionally tampered with a malicious intent to avoid police apprehension.
Usually, such groups and individuals know how to fool the existing recognition
systems by making minor unnoticeable plate changes. Designing and developing
deep learning methods resilient to such real-world 'attack' practices remains
an active research problem. As a solution, this work develops a resilient
method to recognize license plate characters. Extracting 1057 character images
from 160 Nepalese vehicles, as the first step, we trained several standard deep
convolutional neural networks to obtain 99.5% character classification
accuracy. On adversarial images generated to simulate malicious tampering,
however, our model's accuracy dropped to 25%. Next, we enriched our dataset by
generating and adding geometrically masked images, retrained our models, and
investigated the models' predictions. The proposed approach of training with
generated adversarial images helped our adversarial attack-aware license plate
character recognition (AA-LPCR) model achieves an accuracy of 99.7%. This
near-perfect accuracy demonstrates that the proposed idea of random geometric
masking is highly effective for improving the accuracy of license plate
recognition models. Furthermore, by performing interpretability studies to
understand why our models work, we identify and highlight attack-prone regions
in the input character images. In sum, although Nepal's embossed license plate
detection systems are vulnerable to malicious attacks, our findings suggest
that these systems can be upgraded to close to 100% resilience.
- Abstract(参考訳): 走行車両における汚れたナンバープレートの正確な読み出しは,自動ナンバープレート認識システムでは困難である。
さらに、ナンバープレートは警察の不安を避けるために悪意のある意図で意図的に改ざんされることが多い。
通常、このようなグループや個人は、小さな目立たないプレート変更を行うことで、既存の認識システムを騙す方法を知っている。
このような現実世界の'アタック'プラクティスにレジリエントな深層学習手法の設計と開発は、現在も活発な研究課題である。
そこで本研究では,ライセンスプレートの文字を認識するレジリエントな手法を開発した。
最初のステップとして、ネパールの160台の車両から1057個の文字画像を抽出し、標準の深層畳み込みニューラルネットワークを訓練し、99.5%の文字分類精度を得た。
悪意のある改ざんをシミュレートするために生成された敵画像では,モデルの精度は25%に低下した。
次に,幾何学的にマスクされた画像の生成と追加を行い,モデルの再トレーニングを行い,モデルの予測を調査した。
生成した対向画像を用いたトレーニングのアプローチは、我々の対向攻撃対応プレート文字認識(AA-LPCR)モデルが99.7%の精度を達成するのに役立った。
このほぼ完全な精度は、ランダムな幾何マスキングのアイデアが、ナンバープレート認識モデルの精度向上に非常に有効であることを示す。
さらに,モデルが機能する理由を理解するために解釈可能性研究を行うことにより,入力文字画像中の攻撃性の高い領域を識別・強調する。
結論として,ネパールの実施したライセンスプレート検出システムは悪意のある攻撃に対して脆弱であるが,これらのシステムは100%のレジリエンスにアップグレード可能であることが示唆された。
関連論文リスト
- Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Adaptive White-Box Watermarking with Self-Mutual Check Parameters in
Deep Neural Networks [14.039159907367985]
フレージル透かし(Fragile watermarking)は、AIモデルの改ざんを識別する技法である。
従来の手法では、省略のリスク、追加の情報伝達、改ざんを正確に特定できないといった課題に直面していた。
そこで本研究では,改ざんされたパラメータを検出・発見・復元するために,改ざんされたパラメータやビットを検出する手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T07:21:06Z) - MMNet: Multi-Collaboration and Multi-Supervision Network for Sequential
Deepfake Detection [81.59191603867586]
シークエンシャルディープフェイク検出は、回復のための正しいシーケンスで偽の顔領域を特定することを目的としている。
偽画像の復元には、逆変換を実装するための操作モデルの知識が必要である。
顔画像の空間スケールや逐次順列化を扱うマルチコラボレーション・マルチスーパービジョンネットワーク(MMNet)を提案する。
論文 参考訳(メタデータ) (2023-07-06T02:32:08Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - Benchmarking Probabilistic Deep Learning Methods for License Plate
Recognition [11.772116128679116]
本稿では,ライセンスプレート認識における予測の不確かさを明示的にモデル化する。
合成ノイズやぼやけた低解像度画像の実験は、予測の不確実性が確実に間違った予測を見出すことを示した。
論文 参考訳(メタデータ) (2023-02-02T21:37:42Z) - Simulated Adversarial Testing of Face Recognition Models [53.10078734154151]
本稿では,シミュレータを用いて機械学習アルゴリズムの検証方法を学ぶためのフレームワークを提案する。
実データでトレーニングされたモデルの弱点が、シミュレーションサンプルを使って発見できることを示すのはこれが初めてである。
論文 参考訳(メタデータ) (2021-06-08T17:58:10Z) - Deepfake Forensics via An Adversarial Game [99.84099103679816]
顔偽造と画像・映像品質の両面での一般化能力向上のための対人訓練を提唱する。
AIベースの顔操作は、しばしば、一般化が困難であるモデルによって容易に発見できる高周波アーティファクトにつながることを考慮し、これらの特定のアーティファクトを曖昧にしようとする新しい逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T02:20:08Z) - Robust SleepNets [7.23389716633927]
本研究では,運転者の脱着や運転者の眠気にかかわる事故を防止するために,視線閉鎖性検出について検討した。
目の閉鎖度を検出するための2つのモデル:目の画像の最初のモデルと顔の画像の2番目のモデル。
我々は,予測グラディエント Descent,Fast Gradient Sign,DeepFool メソッドでモデルに逆襲し,逆襲成功率を報告する。
論文 参考訳(メタデータ) (2021-02-24T20:48:13Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z) - Detecting Patch Adversarial Attacks with Image Residuals [9.169947558498535]
識別器は、クリーンサンプルと逆サンプルを区別するために訓練される。
得られた残基が敵攻撃のデジタル指紋として機能することを示す。
その結果,提案手法は従来見つからなかった,より強力な攻撃に対して一般化可能であることがわかった。
論文 参考訳(メタデータ) (2020-02-28T01:28:22Z) - Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain [2.4704085162861693]
Deep Neural Network(DNN)分類器を実生活で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
我々はFast Gradient Sign Methodを適用し、顔画像データセットに摂動を導入し、異なる分類器で出力をテストする。
我々は、最小の敵対的知識を前提に、さまざまなブラックボックス攻撃アルゴリズムを顔画像データセット上に構築する。
論文 参考訳(メタデータ) (2020-01-30T00:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。