論文の概要: Seeing Through the Mask: Rethinking Adversarial Examples for CAPTCHAs
- arxiv url: http://arxiv.org/abs/2409.05558v1
- Date: Mon, 9 Sep 2024 12:29:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 14:50:09.447860
- Title: Seeing Through the Mask: Rethinking Adversarial Examples for CAPTCHAs
- Title(参考訳): マスクを通して見る:CAPTCHAの逆例を再考する
- Authors: Yahya Jabary, Andreas Plesner, Turlan Kuzhagaliyev, Roger Wattenhofer,
- Abstract要約: 現代のCAPTCHAはコンピュータにとって難しいが人間にとっては容易なビジョンタスクに大きく依存している。
画像認識モデルの進歩は、このようなCAPTCHAに重大な脅威をもたらす。
この研究で、画像のより重要な変更を可能にすることで、多くの最先端モデルを騙すことができることを示す。
- 参考スコア(独自算出の注目度): 18.95453617434051
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern CAPTCHAs rely heavily on vision tasks that are supposedly hard for computers but easy for humans. However, advances in image recognition models pose a significant threat to such CAPTCHAs. These models can easily be fooled by generating some well-hidden "random" noise and adding it to the image, or hiding objects in the image. However, these methods are model-specific and thus can not aid CAPTCHAs in fooling all models. We show in this work that by allowing for more significant changes to the images while preserving the semantic information and keeping it solvable by humans, we can fool many state-of-the-art models. Specifically, we demonstrate that by adding masks of various intensities the Accuracy @ 1 (Acc@1) drops by more than 50%-points for all models, and supposedly robust models such as vision transformers see an Acc@1 drop of 80%-points. These masks can therefore effectively fool modern image classifiers, thus showing that machines have not caught up with humans -- yet.
- Abstract(参考訳): 現代のCAPTCHAはコンピュータにとって難しいが人間にとっては容易なビジョンタスクに大きく依存している。
しかし、画像認識モデルの進歩は、このようなCAPTCHAに重大な脅威をもたらす。
これらのモデルは、よく隠された「ランダム」ノイズを発生させ、画像に追加したり、画像に物体を隠すことで、簡単に騙せることができる。
しかし、これらの手法はモデル固有のため、CAPTCHAが全てのモデルを騙すのに役に立たない。
この研究で我々は、意味情報を保存し、それを人間によって解決できるようにしながら、画像により重要な変更を加えることで、多くの最先端モデルを騙すことができることを示した。
具体的には、様々な強度のマスクを追加することで、すべてのモデルに対して精度@1(Acc@1)が50%以上低下し、視覚変換器のようなロバストなモデルでは80%のAcc@1が低下することを示す。
これらのマスクは現代の画像分類器を効果的に騙すことができるため、機械が人間に追いついていないことを示している。
関連論文リスト
- See or Guess: Counterfactually Regularized Image Captioning [32.82695612178604]
本稿では、因果推論を利用して、既存のモデルを介入作業に役立てる汎用画像キャプションフレームワークを提案する。
本手法は幻覚を効果的に低減し,画像への忠実さを向上し,小型および大規模の画像・テキスト・モデル間で高い可搬性を示す。
論文 参考訳(メタデータ) (2024-08-29T17:59:57Z) - Mask Guided Gated Convolution for Amodal Content Completion [0.0]
部分的な可視物体を再構成するモデルを提案する。
モデルではマスクを入力として取り、それを重み付けマスクと呼ぶ。
可視領域からより多くの注意を引くことで、我々のモデルはベースラインモデルよりも効果的に見えないパッチを予測することができる。
論文 参考訳(メタデータ) (2024-07-21T15:51:29Z) - Bootstrap Masked Visual Modeling via Hard Patches Mining [68.74750345823674]
マスク付き視覚モデリングは、一般化可能な表現の学習において有望な可能性を秘めているため、多くの注目を集めている。
モデルが教師の靴の中に立つことは同様に重要であると我々は主張する。
教師としてのモデルを強化するため,我々はハードパッチマイニング(HPM, Hard Patches Mining)を提案し,パッチワイド損失を予測し,次にマスクの場所を決定する。
論文 参考訳(メタデータ) (2023-12-21T10:27:52Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Mask and Restore: Blind Backdoor Defense at Test Time with Masked
Autoencoder [57.739693628523]
Masked AutoEncoder (BDMAE) を用いたブラインドバックドア防御のためのフレームワークを提案する。
BDMAEは、画像構造的類似性とテスト画像とMAE復元の間のラベル整合性を用いて、トークン空間で可能なトリガを検出する。
私たちのアプローチは、モデル復元、パターンのトリガー、画像の良心に盲目です。
論文 参考訳(メタデータ) (2023-03-27T19:23:33Z) - Improving Masked Autoencoders by Learning Where to Mask [65.89510231743692]
マスケ画像モデリングは視覚データに対する有望な自己教師型学習手法である。
本稿では,Gumbel-Softmax を用いて,対向学習マスク生成装置とマスク誘導画像モデリングプロセスとを相互接続するフレームワーク AutoMAE を提案する。
実験の結果,AutoMAEは,標準の自己監督型ベンチマークや下流タスクに対して,効果的な事前学習モデルを提供することがわかった。
論文 参考訳(メタデータ) (2023-03-12T05:28:55Z) - MAGE: MAsked Generative Encoder to Unify Representation Learning and
Image Synthesis [33.46831766206675]
MASked Generative (MAGE)は、SOTA画像生成と自己教師付き表現学習を統合するための最初のフレームワークである。
以前の生成モデルにインスパイアされたMAGEは、入力と出力でベクトル量子化されたGANによって学習された意味トークンを使用する。
ImageNet-1Kでは、1つのMAGE ViT-Lモデルがクラス非条件画像生成のタスクで9.10 FIDを得る。
論文 参考訳(メタデータ) (2022-11-16T18:59:02Z) - Masked Autoencoders are Robust Data Augmentors [90.34825840657774]
ディープニューラルネットワークの一般化には、画像拡張のような正規化技術が必要である。
本稿では,トレーニングプロセスの正規化に向けて,新たな拡張の視点を提案する。
このようなモデルに基づく非線形変換をデータ拡張として活用することで,高レベルの認識タスクを向上できることを示す。
論文 参考訳(メタデータ) (2022-06-10T02:41:48Z) - Masked Autoencoders Are Scalable Vision Learners [60.97703494764904]
Masked Autoencoders (MAE) は、コンピュータビジョンのためのスケーラブルな自己教師型学習システムである。
我々は入力画像のランダムなパッチを隠蔽し、欠落したピクセルを再構成する。
これら2つの設計を結合することで,大規模モデルを効率的かつ効率的にトレーニングすることが可能になります。
論文 参考訳(メタデータ) (2021-11-11T18:46:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。