論文の概要: Diff-CAPTCHA: An Image-based CAPTCHA with Security Enhanced by Denoising
Diffusion Model
- arxiv url: http://arxiv.org/abs/2308.08367v1
- Date: Wed, 16 Aug 2023 13:41:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 13:14:19.985856
- Title: Diff-CAPTCHA: An Image-based CAPTCHA with Security Enhanced by Denoising
Diffusion Model
- Title(参考訳): Diff-CAPTCHA:拡散モデルによるセキュリティ強化によるイメージベースCAPTCHA
- Authors: Ran Jiang, Sanfeng Zhang, Linfeng Liu, Yanbing Peng
- Abstract要約: Diff-CAPTCHAは拡散モデルに基づく画像クリック型CAPTCHAスキームである。
本稿では,Faster R-CNNに基づくエンドツーエンドアタックや2段階アタックなど,いくつかの攻撃手法を開発する。
その結果, 拡散モデルによりCAPTCHAの安全性が向上し, 良好なユーザビリティが維持できることが示唆された。
- 参考スコア(独自算出の注目度): 2.1551899143698328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To enhance the security of text CAPTCHAs, various methods have been employed,
such as adding the interference lines on the text, randomly distorting the
characters, and overlapping multiple characters. These methods partly increase
the difficulty of automated segmentation and recognition attacks. However,
facing the rapid development of the end-to-end breaking algorithms, their
security has been greatly weakened. The diffusion model is a novel image
generation model that can generate the text images with deep fusion of
characters and background images. In this paper, an image-click CAPTCHA scheme
called Diff-CAPTCHA is proposed based on denoising diffusion models. The
background image and characters of the CAPTCHA are treated as a whole to guide
the generation process of a diffusion model, thus weakening the character
features available for machine learning, enhancing the diversity of character
features in the CAPTCHA, and increasing the difficulty of breaking algorithms.
To evaluate the security of Diff-CAPTCHA, this paper develops several attack
methods, including end-to-end attacks based on Faster R-CNN and two-stage
attacks, and Diff-CAPTCHA is compared with three baseline schemes, including
commercial CAPTCHA scheme and security-enhanced CAPTCHA scheme based on style
transfer. The experimental results show that diffusion models can effectively
enhance CAPTCHA security while maintaining good usability in human testing.
- Abstract(参考訳): CAPTCHAの安全性を高めるために、テキストに干渉線を追加したり、文字をランダムに歪ませたり、複数の文字を重複させたりといった様々な手法が採用されている。
これらの手法は、自動セグメンテーションと認識攻撃の難しさを部分的に増やしている。
しかし、エンドツーエンドの破壊アルゴリズムの急速な開発に直面し、そのセキュリティは大幅に弱まった。
拡散モデルは文字と背景画像の深い融合でテキスト画像を生成することができる新しい画像生成モデルである。
本稿では,Diff-CAPTCHAと呼ばれる画像クリック型CAPTCHA方式を提案する。
captchaの背景画像と文字を全体として扱い、拡散モデルの生成過程を導くことにより、機械学習で使用可能な文字特徴を弱め、captchaの文字特徴の多様性を高め、アルゴリズムを破ることの難しさを増大させる。
本稿では、Diff-CAPTCHAのセキュリティを評価するために、より高速なR-CNNに基づくエンドツーエンド攻撃と2段階攻撃を含むいくつかの攻撃手法を開発し、Diff-CAPTCHAを商用CAPTCHAスキームとセキュリティ強化CAPTCHAスキームの3つのベースラインスキームと比較した。
実験結果から, 拡散モデルによりCAPTCHAの安全性が向上し, 良好なユーザビリティが維持できることが示唆された。
関連論文リスト
- MMAR: Towards Lossless Multi-Modal Auto-Regressive Probabilistic Modeling [64.09238330331195]
本稿では,MMAR(Multi-Modal Auto-Regressive)確率モデルフレームワークを提案する。
離散化の手法とは異なり、MMARは情報損失を避けるために連続的に評価された画像トークンを取り入れる。
MMARは他のジョイントマルチモーダルモデルよりもはるかに優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-14T17:57:18Z) - A Survey of Adversarial CAPTCHAs on its History, Classification and
Generation [69.36242543069123]
本稿では, 逆CAPTCHAの定義を拡張し, 逆CAPTCHAの分類法を提案する。
また, 敵CAPTCHAの防御に使用可能な防御方法も分析し, 敵CAPTCHAに対する潜在的な脅威を示す。
論文 参考訳(メタデータ) (2023-11-22T08:44:58Z) - Adversarial Prompt Tuning for Vision-Language Models [86.5543597406173]
AdvPT(Adversarial Prompt Tuning)は、視覚言語モデル(VLM)における画像エンコーダの対向ロバスト性を高める技術である。
我々は,AdvPTが白箱攻撃や黒箱攻撃に対する抵抗性を向上し,既存の画像処理による防御技術と組み合わせることで相乗効果を示すことを示した。
論文 参考訳(メタデータ) (2023-11-19T07:47:43Z) - MaskDiffusion: Boosting Text-to-Image Consistency with Conditional Mask [84.84034179136458]
テキスト・イメージのミスマッチ問題に繋がる重要な要因は、モダリティ間の関係学習の不十分さである。
本稿では,注目マップと迅速な埋め込みを条件とした適応マスクを提案し,画像特徴に対する各テキストトークンの寄与度を動的に調整する。
この手法はMaskDiffusionと呼ばれ、トレーニング不要で、一般的な事前学習拡散モデルに対してホットプラグ可能である。
論文 参考訳(メタデータ) (2023-09-08T15:53:37Z) - EnSolver: Uncertainty-Aware Ensemble CAPTCHA Solvers with Theoretical Guarantees [1.9649272351760065]
本研究では, 深層アンサンブル不確実性を利用して分布外CAPTCHAを検出し, スキップする解法であるEnrを提案する。
我々は,解法の有効性に新たな理論的限界を証明し,その応用を最先端のCAPTCHA解法で実証する。
論文 参考訳(メタデータ) (2023-07-27T20:19:11Z) - Vulnerability analysis of captcha using Deep learning [0.0]
本研究ではCAPTCHA生成システムの欠陥と脆弱性について検討する。
これを実現するために、我々は畳み込みニューラルネットワークであるCapNetを開発した。
提案プラットフォームは,数値およびアルファ数値CAPTCHAの両方を評価することができる
論文 参考訳(メタデータ) (2023-02-18T17:45:11Z) - Semantic-Conditional Diffusion Networks for Image Captioning [116.86677915812508]
画像キャプションに適した拡散モデルに基づく新しいパラダイム,すなわちセマンティック・コンディション・ディフュージョン・ネットワーク(SCD-Net)を提案する。
SCD-Netでは、複数の拡散変換器構造を積み重ねて、より優れた視覚言語アライメントと言語的コヒーレンスで出力文を徐々に強化する。
COCOデータセットの実験は、困難な画像キャプションタスクにおいて拡散モデルを使用することの有望な可能性を示している。
論文 参考訳(メタデータ) (2022-12-06T16:08:16Z) - Robust Text CAPTCHAs Using Adversarial Examples [129.29523847765952]
Robust Text CAPTCHA (RTC) という,ユーザフレンドリーなテキストベースのCAPTCHA生成法を提案する。
第1段階では、前景と背景はランダムにサンプルされたフォントと背景画像で構成される。
第2段階では、CAPTCHAの解法をより妨害するために、高転送可能な逆攻撃をテキストCAPTCHAに適用する。
論文 参考訳(メタデータ) (2021-01-07T11:03:07Z) - An End-to-End Attack on Text-based CAPTCHAs Based on Cycle-Consistent
Generative Adversarial Network [4.955311532191887]
本稿では,サイクル一貫性のある生成対向ネットワークをベースとした,効率的かつ簡便なエンドツーエンド攻撃手法を提案する。
いくつかの設定パラメータを変更するだけで、一般的なテキストベースのCAPTCHAスキームを攻撃できる。
提案手法は,10のWebサイトが展開するCAPTCHAスキームを効率的に分解する。
論文 参考訳(メタデータ) (2020-08-26T14:57:47Z) - Deep-CAPTCHA: a deep learning based CAPTCHA solver for vulnerability
assessment [1.027974860479791]
本研究では,CAPTCHAジェネレータシステムの弱点と脆弱性について検討する。
この目的を達成するために,Deep-CAPTCHAと呼ばれる畳み込みニューラルネットワークを開発した。
我々のネットワークのクラック精度は、数値およびアルファ数値テストデータセットの98.94%と98.31%のハイレートにつながる。
論文 参考訳(メタデータ) (2020-06-15T11:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。