論文の概要: An End-to-End Attack on Text-based CAPTCHAs Based on Cycle-Consistent
Generative Adversarial Network
- arxiv url: http://arxiv.org/abs/2008.11603v1
- Date: Wed, 26 Aug 2020 14:57:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 21:46:44.469531
- Title: An End-to-End Attack on Text-based CAPTCHAs Based on Cycle-Consistent
Generative Adversarial Network
- Title(参考訳): 周期型生成対向ネットワークに基づくテキストベースCAPTCHAのエンドツーエンド攻撃
- Authors: Chunhui Li, Xingshu Chen, Haizhou Wang, Yu Zhang, Peiming Wang
- Abstract要約: 本稿では,サイクル一貫性のある生成対向ネットワークをベースとした,効率的かつ簡便なエンドツーエンド攻撃手法を提案する。
いくつかの設定パラメータを変更するだけで、一般的なテキストベースのCAPTCHAスキームを攻撃できる。
提案手法は,10のWebサイトが展開するCAPTCHAスキームを効率的に分解する。
- 参考スコア(独自算出の注目度): 4.955311532191887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a widely deployed security scheme, text-based CAPTCHAs have become more
and more difficult to resist machine learning-based attacks. So far, many
researchers have conducted attacking research on text-based CAPTCHAs deployed
by different companies (such as Microsoft, Amazon, and Apple) and achieved
certain results.However, most of these attacks have some shortcomings, such as
poor portability of attack methods, requiring a series of data preprocessing
steps, and relying on large amounts of labeled CAPTCHAs. In this paper, we
propose an efficient and simple end-to-end attack method based on
cycle-consistent generative adversarial networks. Compared with previous
studies, our method greatly reduces the cost of data labeling. In addition,
this method has high portability. It can attack common text-based CAPTCHA
schemes only by modifying a few configuration parameters, which makes the
attack easier. Firstly, we train CAPTCHA synthesizers based on the cycle-GAN to
generate some fake samples. Basic recognizers based on the convolutional
recurrent neural network are trained with the fake data. Subsequently, an
active transfer learning method is employed to optimize the basic recognizer
utilizing tiny amounts of labeled real-world CAPTCHA samples. Our approach
efficiently cracked the CAPTCHA schemes deployed by 10 popular websites,
indicating that our attack is likely very general. Additionally, we analyzed
the current most popular anti-recognition mechanisms. The results show that the
combination of more anti-recognition mechanisms can improve the security of
CAPTCHA, but the improvement is limited. Conversely, generating more complex
CAPTCHAs may cost more resources and reduce the availability of CAPTCHAs.
- Abstract(参考訳): 広くデプロイされたセキュリティスキームとして、テキストベースのCAPTCHAは、マシンラーニングベースの攻撃に抵抗することがますます困難になっている。
これまでに多くの研究者が、さまざまな企業(Microsoft、Amazon、Appleなど)が展開するテキストベースのCAPTCHAの攻撃調査を実施し、特定の結果を得たが、攻撃方法のポータビリティの低下、一連のデータ前処理ステップの要求、大量のCAPTCHAへの依存など、いくつかの欠点がある。
本稿では,サイクル一貫性のある生成対向ネットワークに基づく,効率的かつ簡便なエンドツーエンド攻撃手法を提案する。
従来の研究と比較して,本手法はデータラベリングのコストを大幅に削減する。
さらに、この方法は高いポータビリティを有する。
一般的なテキストベースのCAPTCHAスキームは、いくつかの設定パラメータを変更するだけで攻撃が容易になる。
まず、サイクルGANに基づいてCAPTCHAシンセサイザーを訓練し、偽のサンプルを生成する。
畳み込み型リカレントニューラルネットワークに基づく基本認識器を偽データを用いて訓練する。
次に、少量のラベル付き実世界のcaptchaサンプルを用いて、基本認識器を最適化するアクティブ転送学習方法を採用する。
当社のアプローチは,10のWebサイトが展開するCAPTCHAスキームを効果的に破り,攻撃が極めて一般的であることを示唆している。
さらに,現在最も普及している抗認知機構の解析を行った。
以上の結果より, CAPTCHAの安全性は向上するが, 改善は限定的であることが明らかとなった。
逆に、より複雑なCAPTCHAの生成にはより多くのリソースが必要であり、CAPTCHAの可用性が低下する可能性がある。
関連論文リスト
- Unveiling Vulnerability of Self-Attention [61.85150061213987]
事前訓練された言語モデル(PLM)は、マイナーな単語変更に対して脆弱であることが示されている。
本稿では,変圧器を用いたPSMの基本構造,自己注意機構について検討する。
構造的摂動によってSAを効果的に堅牢にする新しい平滑化技術である textitS-Attend を導入する。
論文 参考訳(メタデータ) (2024-02-26T10:31:45Z) - A Survey of Adversarial CAPTCHAs on its History, Classification and
Generation [69.36242543069123]
本稿では, 逆CAPTCHAの定義を拡張し, 逆CAPTCHAの分類法を提案する。
また, 敵CAPTCHAの防御に使用可能な防御方法も分析し, 敵CAPTCHAに対する潜在的な脅威を示す。
論文 参考訳(メタデータ) (2023-11-22T08:44:58Z) - Diff-CAPTCHA: An Image-based CAPTCHA with Security Enhanced by Denoising
Diffusion Model [2.1551899143698328]
Diff-CAPTCHAは拡散モデルに基づく画像クリック型CAPTCHAスキームである。
本稿では,Faster R-CNNに基づくエンドツーエンドアタックや2段階アタックなど,いくつかの攻撃手法を開発する。
その結果, 拡散モデルによりCAPTCHAの安全性が向上し, 良好なユーザビリティが維持できることが示唆された。
論文 参考訳(メタデータ) (2023-08-16T13:41:29Z) - EnSolver: Uncertainty-Aware Ensemble CAPTCHA Solvers with Theoretical Guarantees [1.9649272351760065]
本研究では, 深層アンサンブル不確実性を利用して分布外CAPTCHAを検出し, スキップする解法であるEnrを提案する。
我々は,解法の有効性に新たな理論的限界を証明し,その応用を最先端のCAPTCHA解法で実証する。
論文 参考訳(メタデータ) (2023-07-27T20:19:11Z) - Backdoor Attacks Against Deep Image Compression via Adaptive Frequency
Trigger [106.10954454667757]
本稿では,学習画像圧縮モデルに対する複数のトリガーを用いたバックドアアタックを提案する。
既存の圧縮システムや標準で広く使われている離散コサイン変換(DCT)に動機付けられ,周波数ベースのトリガーインジェクションモデルを提案する。
論文 参考訳(メタデータ) (2023-02-28T15:39:31Z) - Vulnerability analysis of captcha using Deep learning [0.0]
本研究ではCAPTCHA生成システムの欠陥と脆弱性について検討する。
これを実現するために、我々は畳み込みニューラルネットワークであるCapNetを開発した。
提案プラットフォームは,数値およびアルファ数値CAPTCHAの両方を評価することができる
論文 参考訳(メタデータ) (2023-02-18T17:45:11Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Learning-based Hybrid Local Search for the Hard-label Textual Attack [53.92227690452377]
我々は,攻撃者が予測ラベルにのみアクセス可能な,滅多に調査されていないが厳格な設定,すなわちハードラベル攻撃を考える。
そこで本研究では,Learning-based Hybrid Local Search (LHLS)アルゴリズムという,新たなハードラベル攻撃を提案する。
我々のLHLSは、攻撃性能と敵の品質に関する既存のハードラベル攻撃を著しく上回っている。
論文 参考訳(メタデータ) (2022-01-20T14:16:07Z) - Robust Text CAPTCHAs Using Adversarial Examples [129.29523847765952]
Robust Text CAPTCHA (RTC) という,ユーザフレンドリーなテキストベースのCAPTCHA生成法を提案する。
第1段階では、前景と背景はランダムにサンプルされたフォントと背景画像で構成される。
第2段階では、CAPTCHAの解法をより妨害するために、高転送可能な逆攻撃をテキストCAPTCHAに適用する。
論文 参考訳(メタデータ) (2021-01-07T11:03:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。