論文の概要: Captcha Attack: Turning Captchas Against Humanity
- arxiv url: http://arxiv.org/abs/2201.04014v2
- Date: Thu, 13 Jan 2022 10:00:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-14 12:41:25.676377
- Title: Captcha Attack: Turning Captchas Against Humanity
- Title(参考訳): Captcha攻撃:Captchaは人間性に反する
- Authors: Mauro Conti, Luca Pajola, Pier Paolo Tricomi
- Abstract要約: 本稿では,自動コンテンツモデレータを回避し,不適切なテキストをオンラインで拡散できるCAPtcha Attack (CAPA)を提案する。
実世界のACMに対する攻撃を検証し、その結果、単純で効果的な攻撃の威力を確認し、ほとんどのケースで100%の回避に成功した。
- 参考スコア(独自算出の注目度): 21.976751075647798
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Nowadays, people generate and share massive content on online platforms
(e.g., social networks, blogs). In 2021, the 1.9 billion daily active Facebook
users posted around 150 thousand photos every minute. Content moderators
constantly monitor these online platforms to prevent the spreading of
inappropriate content (e.g., hate speech, nudity images). Based on deep
learning (DL) advances, Automatic Content Moderators (ACM) help human
moderators handle high data volume. Despite their advantages, attackers can
exploit weaknesses of DL components (e.g., preprocessing, model) to affect
their performance. Therefore, an attacker can leverage such techniques to
spread inappropriate content by evading ACM.
In this work, we propose CAPtcha Attack (CAPA), an adversarial technique that
allows users to spread inappropriate text online by evading ACM controls. CAPA,
by generating custom textual CAPTCHAs, exploits ACM's careless design
implementations and internal procedures vulnerabilities. We test our attack on
real-world ACM, and the results confirm the ferocity of our simple yet
effective attack, reaching up to a 100% evasion success in most cases. At the
same time, we demonstrate the difficulties in designing CAPA mitigations,
opening new challenges in CAPTCHAs research area.
- Abstract(参考訳): 現在、人々はオンラインプラットフォーム(例えば、ソーシャルネットワーク、ブログ)で大量のコンテンツを作成、共有している。
2021年、毎日190億人のFacebookユーザーが毎分約150万枚の写真を投稿した。
コンテンツモデレーターは常にこれらのオンラインプラットフォームを監視し、不適切なコンテンツ(ヘイトスピーチ、ヌード画像など)の拡散を防ぐ。
ディープラーニング(DL)の進歩に基づいて、自動コンテンツモデレータ(ACM)は、人間のモデレーターが高いデータボリュームを処理するのに役立つ。
アドバンテージにもかかわらず、攻撃者はDLコンポーネント(例えば前処理、モデル)の弱点を利用してパフォーマンスに影響を与えることができる。
したがって、攻撃者はacmを回避して不適切なコンテンツを拡散することができる。
そこで本研究では,ACM制御を回避して不適切なテキストをオンラインで拡散できるCAPtcha Attack (CAPA)を提案する。
CAPAはカスタムテキストCAPTCHAを生成することで、ACMの不注意な設計実装と内部プロシージャの脆弱性を利用する。
実世界のACMに対する攻撃を検証し、その結果、単純で効果的な攻撃の威力を確認し、ほとんどのケースで100%の回避に成功した。
同時に、CAPTCHAs研究領域におけるCAPA緩和の難しさを実証し、新たな課題を提起する。
関連論文リスト
- D-CAPTCHA++: A Study of Resilience of Deepfake CAPTCHA under Transferable Imperceptible Adversarial Attack [1.7811840395202345]
近年の研究では、実際の通話と偽の通話を区別するチャレンジ応答プロトコルに基づくD-CAPTCHAシステムを提案する。
本研究では,このシステムのレジリエンスについて検討し,より堅牢なD-CAPTCHA++を導入し,フェイクコールに対する防御を行う。
論文 参考訳(メタデータ) (2024-09-11T16:25:02Z) - Adversarial Attacks on Multimodal Agents [73.97379283655127]
視覚対応言語モデル(VLM)は、現在、実環境でのアクションを可能にする自律的なマルチモーダルエージェントの構築に使用されている。
攻撃エージェントは、環境への限られたアクセスと知識により、以前の攻撃よりも困難であるにもかかわらず、マルチモーダルエージェントが新たな安全リスクを生じさせることを示す。
論文 参考訳(メタデータ) (2024-06-18T17:32:48Z) - White-box Multimodal Jailbreaks Against Large Vision-Language Models [61.97578116584653]
本稿では,テキストと画像のモダリティを併用して,大規模視覚言語モデルにおけるより広範な脆弱性のスペクトルを利用する,より包括的戦略を提案する。
本手法は,テキスト入力がない場合に,逆画像プレフィックスをランダムノイズから最適化し,有害な応答を多様に生成することから始める。
様々な有害な指示に対する肯定的な反応を誘発する確率を最大化するために、対向テキスト接頭辞を、対向画像接頭辞と統合し、共最適化する。
論文 参考訳(メタデータ) (2024-05-28T07:13:30Z) - A Survey of Adversarial CAPTCHAs on its History, Classification and
Generation [69.36242543069123]
本稿では, 逆CAPTCHAの定義を拡張し, 逆CAPTCHAの分類法を提案する。
また, 敵CAPTCHAの防御に使用可能な防御方法も分析し, 敵CAPTCHAに対する潜在的な脅威を示す。
論文 参考訳(メタデータ) (2023-11-22T08:44:58Z) - Dazed & Confused: A Large-Scale Real-World User Study of reCAPTCHAv2 [10.512866198986279]
本稿では,現代のカプチャのユーザビリティ,パフォーマンス,ユーザ認識について検討する。
本研究は,reCAPTCHAv2を用いたライブアカウント作成とパスワード回復サービスに基づく。
System Usability Scale (SUS) を通じて評価された画像タスクは「OK」、チェックボックスタスクは「良い」と見なされる。
論文 参考訳(メタデータ) (2023-11-17T23:38:48Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - Robust Contrastive Language-Image Pre-training against Data Poisoning
and Backdoor Attacks [52.26631767748843]
ROCLIPは、ターゲットデータ中毒やバックドア攻撃に対して、マルチモーダル視覚言語モデルを堅牢に学習するための最初の効果的な方法である。
ROCLIPは、比較的大きく多様なランダムキャプションのプールを考慮することにより、有毒な撮像対の関連を効果的に破壊する。
実験の結果,ROCLIPは訓練前のCLIPモデルにおいて,最先端のデータ中毒やバックドア攻撃を未然に防ぐことができることがわかった。
論文 参考訳(メタデータ) (2023-03-13T04:49:46Z) - Preserving Semantics in Textual Adversarial Attacks [0.0]
敵の攻撃によって生じる敵の事例の最大70%は、意味論を保存していないため破棄されるべきである。
SPE(Semantics-Preserving-Encoder)と呼ばれる新しい完全教師付き文埋め込み手法を提案する。
本手法は, 敵攻撃における既存の文エンコーダよりも1.2倍から5.1倍優れた実攻撃成功率を達成している。
論文 参考訳(メタデータ) (2022-11-08T12:40:07Z) - Robust Text CAPTCHAs Using Adversarial Examples [129.29523847765952]
Robust Text CAPTCHA (RTC) という,ユーザフレンドリーなテキストベースのCAPTCHA生成法を提案する。
第1段階では、前景と背景はランダムにサンプルされたフォントと背景画像で構成される。
第2段階では、CAPTCHAの解法をより妨害するために、高転送可能な逆攻撃をテキストCAPTCHAに適用する。
論文 参考訳(メタデータ) (2021-01-07T11:03:07Z) - Capture the Bot: Using Adversarial Examples to Improve CAPTCHA
Robustness to Bot Attacks [4.498333418544154]
本稿では,新しいCAPTCHA方式であるCAPTUREを紹介する。
実験により,CAPTUREは人間による解決が容易なCAPTCHAを生成できることを示した。
論文 参考訳(メタデータ) (2020-10-30T11:39:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。