論文の概要: BounTCHA: A CAPTCHA Utilizing Boundary Identification in AI-extended Videos
- arxiv url: http://arxiv.org/abs/2501.18565v1
- Date: Thu, 30 Jan 2025 18:38:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-31 15:15:16.785789
- Title: BounTCHA: A CAPTCHA Utilizing Boundary Identification in AI-extended Videos
- Title(参考訳): BounTCHA:AI拡張ビデオにおける境界識別を利用したCAPTCHA
- Authors: Lehao Lin, Ke Wang, Maha Abdallah, Wei Cai,
- Abstract要約: ボットは、既存のCAPTCHAシステムの多くをバイパスし、Webアプリケーションに重大なセキュリティ上の脅威を生じさせている。
ビデオのトランジションやディスラプションにおける境界に対する人間の認識を活用するCAPTCHA機構であるBounTCHAの設計と実装を行う。
我々は,境界同定における人間の時間偏差データ収集のためのプロトタイプを開発し,実験を行った。
- 参考スコア(独自算出の注目度): 4.873950690073118
- License:
- Abstract: In recent years, the rapid development of artificial intelligence (AI) especially multi-modal Large Language Models (MLLMs), has enabled it to understand text, images, videos, and other multimedia data, allowing AI systems to execute various tasks based on human-provided prompts. However, AI-powered bots have increasingly been able to bypass most existing CAPTCHA systems, posing significant security threats to web applications. This makes the design of new CAPTCHA mechanisms an urgent priority. We observe that humans are highly sensitive to shifts and abrupt changes in videos, while current AI systems still struggle to comprehend and respond to such situations effectively. Based on this observation, we design and implement BounTCHA, a CAPTCHA mechanism that leverages human perception of boundaries in video transitions and disruptions. By utilizing AI's capability to expand original videos with prompts, we introduce unexpected twists and changes to create a pipeline for generating short videos for CAPTCHA purposes. We develop a prototype and conduct experiments to collect data on humans' time biases in boundary identification. This data serves as a basis for distinguishing between human users and bots. Additionally, we perform a detailed security analysis of BounTCHA, demonstrating its resilience against various types of attacks. We hope that BounTCHA will act as a robust defense, safeguarding millions of web applications in the AI-driven era.
- Abstract(参考訳): 近年、人工知能(AI)、特にマルチモーダル大規模言語モデル(MLLM)の急速な発展により、テキスト、画像、ビデオ、その他のマルチメディアデータを理解することができ、AIシステムは人間が提供するプロンプトに基づいて様々なタスクを実行できるようになった。
しかし、AIで動くボットは、既存のCAPTCHAシステムの多くをバイパスし、Webアプリケーションに重大なセキュリティ上の脅威をもたらしている。
これにより、新しいCAPTCHA機構の設計が緊急優先される。
我々は、人間が動画のシフトや突然の変化に非常に敏感であるのに対し、現在のAIシステムは、そのような状況を理解し、効果的に反応するのに依然として苦労していることを観察する。
この観察に基づいて,ビデオの遷移や破壊における境界に対する人間の認識を活用するCAPTCHA機構であるBounTCHAを設計,実装する。
プロンプトでオリジナルビデオを拡張するAIの機能を活用して、予期せぬツイストと変更を導入し、CAPTCHA目的のショートビデオを生成するパイプラインを作成します。
我々は,境界同定における人間の時間偏差データ収集のためのプロトタイプを開発し,実験を行った。
このデータは、人間とボットを区別するための基盤となる。
さらに、BounTCHAの詳細なセキュリティ分析を行い、様々な種類の攻撃に対するレジリエンスを実証する。
私たちは、BounTCHAが堅牢な防御として機能し、AI駆動時代の何百万ものWebアプリケーションを保護することを期待しています。
関連論文リスト
- IllusionCAPTCHA: A CAPTCHA based on Visual Illusion [14.043017273813227]
我々は、"Human-Easy but AI-Hard"パラダイムを用いた新しいセキュリティメカニズムであるIllusionCAPTCHAを提案する。
その結果,初回試験では86.95%の参加者がCAPTCHAに合格し,他のCAPTCHAシステムよりも優れていた。
論文 参考訳(メタデータ) (2025-02-08T06:03:03Z) - Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Oedipus: LLM-enchanced Reasoning CAPTCHA Solver [17.074422329618212]
OedipusはCAPTCHAの自動推論のための革新的なエンドツーエンドフレームワークである。
このフレームワークの中心は、複雑で人間に近いAIタスクを、シンプルでAIに近い一連のステップに分解する、新しい戦略である。
評価の結果,オエディプスはCAPTCHAを効果的に解決し,平均成功率は63.5%であった。
論文 参考訳(メタデータ) (2024-05-13T06:32:57Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - A Survey of Adversarial CAPTCHAs on its History, Classification and
Generation [69.36242543069123]
本稿では, 逆CAPTCHAの定義を拡張し, 逆CAPTCHAの分類法を提案する。
また, 敵CAPTCHAの防御に使用可能な防御方法も分析し, 敵CAPTCHAに対する潜在的な脅威を示す。
論文 参考訳(メタデータ) (2023-11-22T08:44:58Z) - Vulnerability analysis of captcha using Deep learning [0.0]
本研究ではCAPTCHA生成システムの欠陥と脆弱性について検討する。
これを実現するために、我々は畳み込みニューラルネットワークであるCapNetを開発した。
提案プラットフォームは,数値およびアルファ数値CAPTCHAの両方を評価することができる
論文 参考訳(メタデータ) (2023-02-18T17:45:11Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Robust Text CAPTCHAs Using Adversarial Examples [129.29523847765952]
Robust Text CAPTCHA (RTC) という,ユーザフレンドリーなテキストベースのCAPTCHA生成法を提案する。
第1段階では、前景と背景はランダムにサンプルされたフォントと背景画像で構成される。
第2段階では、CAPTCHAの解法をより妨害するために、高転送可能な逆攻撃をテキストCAPTCHAに適用する。
論文 参考訳(メタデータ) (2021-01-07T11:03:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。