論文の概要: IllusionCAPTCHA: A CAPTCHA based on Visual Illusion
- arxiv url: http://arxiv.org/abs/2502.05461v1
- Date: Sat, 08 Feb 2025 06:03:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:28:53.264855
- Title: IllusionCAPTCHA: A CAPTCHA based on Visual Illusion
- Title(参考訳): IllusionCAPTCHA:ビジュアルイリュージョンに基づくCAPTCHA
- Authors: Ziqi Ding, Gelei Deng, Yi Liu, Junchen Ding, Jieshan Chen, Yulei Sui, Yuekang Li,
- Abstract要約: 我々は、"Human-Easy but AI-Hard"パラダイムを用いた新しいセキュリティメカニズムであるIllusionCAPTCHAを提案する。
その結果,初回試験では86.95%の参加者がCAPTCHAに合格し,他のCAPTCHAシステムよりも優れていた。
- 参考スコア(独自算出の注目度): 14.043017273813227
- License:
- Abstract: CAPTCHAs have long been essential tools for protecting applications from automated bots. Initially designed as simple questions to distinguish humans from bots, they have become increasingly complex to keep pace with the proliferation of CAPTCHA-cracking techniques employed by malicious actors. However, with the advent of advanced large language models (LLMs), the effectiveness of existing CAPTCHAs is now being undermined. To address this issue, we have conducted an empirical study to evaluate the performance of multimodal LLMs in solving CAPTCHAs and to assess how many attempts human users typically need to pass them. Our findings reveal that while LLMs can solve most CAPTCHAs, they struggle with those requiring complex reasoning type of CAPTCHA that also presents significant challenges for human users. Interestingly, our user study shows that the majority of human participants require a second attempt to pass these reasoning CAPTCHAs, a finding not reported in previous research. Based on empirical findings, we present IllusionCAPTCHA, a novel security mechanism employing the "Human-Easy but AI-Hard" paradigm. This new CAPTCHA employs visual illusions to create tasks that are intuitive for humans but highly confusing for AI models. Furthermore, we developed a structured, step-by-step method that generates misleading options, which particularly guide LLMs towards making incorrect choices and reduce their chances of successfully solving CAPTCHAs. Our evaluation shows that IllusionCAPTCHA can effectively deceive LLMs 100% of the time. Moreover, our structured design significantly increases the likelihood of AI errors when attempting to solve these challenges. Results from our user study indicate that 86.95% of participants successfully passed the CAPTCHA on their first attempt, outperforming other CAPTCHA systems.
- Abstract(参考訳): CAPTCHAは、自動化されたボットからアプリケーションを保護するための重要なツールです。
最初は人間とボットを区別するための単純な質問として設計されたが、悪意あるアクターが採用するCAPTCHAクラック技術の普及に追随するため、ますます複雑になっている。
しかし、先進的な大規模言語モデル(LLM)の出現に伴い、既存のCAPTCHAの有効性は弱まっている。
この問題に対処するため,CAPTCHAの解決におけるマルチモーダルLCMの性能評価と,利用者の通過に必要な試行回数を実証的に検討した。
LLMはほとんどのCAPTCHAを解決できるが、複雑なCAPTCHAを必要とする人には苦戦している。
興味深いことに、我々のユーザー調査は、人間の大多数がCAPTCHAをパスするために2度目の試みを必要としていることを示しています。
IllusionCAPTCHAは「Human-Easy but AI-Hard」パラダイムを用いた新しいセキュリティメカニズムである。
この新しいCAPTCHAは、視覚的な錯覚を利用して、人間には直感的だがAIモデルには極めて混乱したタスクを生成する。
さらに,誤った選択を行ない,CAPTCHAの解法を成功させる可能性を減らすために,誤解を招くオプションを生成する構造的なステップバイステップ手法を開発した。
評価の結果,IllusionCAPTCHA は LLM を100%有効に騙すことができることがわかった。
さらに、構造化された設計は、これらの課題を解決しようとする際のAIエラーの可能性を大幅に高める。
その結果,初回試験では86.95%の参加者がCAPTCHAに合格し,他のCAPTCHAシステムよりも優れていた。
関連論文リスト
- Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - Oedipus: LLM-enchanced Reasoning CAPTCHA Solver [17.074422329618212]
OedipusはCAPTCHAの自動推論のための革新的なエンドツーエンドフレームワークである。
このフレームワークの中心は、複雑で人間に近いAIタスクを、シンプルでAIに近い一連のステップに分解する、新しい戦略である。
評価の結果,オエディプスはCAPTCHAを効果的に解決し,平均成功率は63.5%であった。
論文 参考訳(メタデータ) (2024-05-13T06:32:57Z) - A Survey of Adversarial CAPTCHAs on its History, Classification and
Generation [69.36242543069123]
本稿では, 逆CAPTCHAの定義を拡張し, 逆CAPTCHAの分類法を提案する。
また, 敵CAPTCHAの防御に使用可能な防御方法も分析し, 敵CAPTCHAに対する潜在的な脅威を示す。
論文 参考訳(メタデータ) (2023-11-22T08:44:58Z) - EnSolver: Uncertainty-Aware Ensemble CAPTCHA Solvers with Theoretical Guarantees [1.9649272351760065]
本研究では, 深層アンサンブル不確実性を利用して分布外CAPTCHAを検出し, スキップする解法であるEnrを提案する。
我々は,解法の有効性に新たな理論的限界を証明し,その応用を最先端のCAPTCHA解法で実証する。
論文 参考訳(メタデータ) (2023-07-27T20:19:11Z) - Vulnerability analysis of captcha using Deep learning [0.0]
本研究ではCAPTCHA生成システムの欠陥と脆弱性について検討する。
これを実現するために、我々は畳み込みニューラルネットワークであるCapNetを開発した。
提案プラットフォームは,数値およびアルファ数値CAPTCHAの両方を評価することができる
論文 参考訳(メタデータ) (2023-02-18T17:45:11Z) - "No, to the Right" -- Online Language Corrections for Robotic
Manipulation via Shared Autonomy [70.45420918526926]
LILACは、実行中に自然言語の修正をオンラインで実施し、適応するためのフレームワークである。
LILACは人間とロボットを個別にターンテイクする代わりに、人間とロボットの間にエージェンシーを分割する。
提案手法は,タスク完了率が高く,ユーザによって主観的に好まれることを示す。
論文 参考訳(メタデータ) (2023-01-06T15:03:27Z) - Human Decision Makings on Curriculum Reinforcement Learning with
Difficulty Adjustment [52.07473934146584]
我々は,カリキュラム強化学習結果を,人的意思決定プロセスから学ぶことで,難しすぎず,難しすぎるような望ましいパフォーマンスレベルに導く。
本システムは非常に並列化可能であり,大規模強化学習アプリケーションの訓練が可能となる。
強化学習性能は、人間の所望の難易度と同期してうまく調整できることが示される。
論文 参考訳(メタデータ) (2022-08-04T23:53:51Z) - Understanding the Usability Challenges of Machine Learning In
High-Stakes Decision Making [67.72855777115772]
機械学習(ML)は、多種多様な成長を続ける一連のドメインに適用されている。
多くの場合、MLやデータサイエンスの専門知識を持たないドメインの専門家は、ML予測を使用してハイステークな意思決定を行うように求められます。
児童福祉スクリーニングにおけるMLユーザビリティの課題について,児童福祉スクリーニング者との一連のコラボレーションを通じて検討する。
論文 参考訳(メタデータ) (2021-03-02T22:50:45Z) - Robust Text CAPTCHAs Using Adversarial Examples [129.29523847765952]
Robust Text CAPTCHA (RTC) という,ユーザフレンドリーなテキストベースのCAPTCHA生成法を提案する。
第1段階では、前景と背景はランダムにサンプルされたフォントと背景画像で構成される。
第2段階では、CAPTCHAの解法をより妨害するために、高転送可能な逆攻撃をテキストCAPTCHAに適用する。
論文 参考訳(メタデータ) (2021-01-07T11:03:07Z) - Deep-CAPTCHA: a deep learning based CAPTCHA solver for vulnerability
assessment [1.027974860479791]
本研究では,CAPTCHAジェネレータシステムの弱点と脆弱性について検討する。
この目的を達成するために,Deep-CAPTCHAと呼ばれる畳み込みニューラルネットワークを開発した。
我々のネットワークのクラック精度は、数値およびアルファ数値テストデータセットの98.94%と98.31%のハイレートにつながる。
論文 参考訳(メタデータ) (2020-06-15T11:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。