論文の概要: Deceiving computers in Reverse Turing Test through Deep Learning
- arxiv url: http://arxiv.org/abs/2006.11373v1
- Date: Mon, 1 Jun 2020 10:11:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 06:58:23.099949
- Title: Deceiving computers in Reverse Turing Test through Deep Learning
- Title(参考訳): ディープラーニングによる逆チューリングテストにおけるコンピュータの騙し
- Authors: Jimut Bahan Pal
- Abstract要約: 現在、ほとんどのWebサイトやサービスプロバイダは、自分のWebサイトが自動化ボットによってクロールされているかどうかをチェックするプロセスを持っています。
本研究の目的は,CAPTCHAのテキストとして広く使用されているCAPTCHAのサブセットの使用が,人間の顧客を検証するための信頼性の高いプロセスであるかどうかを確認することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is increasingly becoming difficult for human beings to work on their day
to day life without going through the process of reverse Turing test, where the
Computers tests the users to be humans or not. Almost every website and service
providers today have the process of checking whether their website is being
crawled or not by automated bots which could extract valuable information from
their site. In the process the bots are getting more intelligent by the use of
Deep Learning techniques to decipher those tests and gain unwanted automated
access to data while create nuisance by posting spam. Humans spend a
considerable amount of time almost every day when trying to decipher CAPTCHAs.
The aim of this investigation is to check whether the use of a subset of
commonly used CAPTCHAs, known as the text CAPTCHA is a reliable process for
verifying their human customers. We mainly focused on the preprocessing step
for every CAPTCHA which converts them in binary intensity and removes the
confusion as much as possible and developed various models to correctly label
as many CAPTCHAs as possible. We also suggested some ways to improve the
process of verifying the humans which makes it easy for humans to solve the
existing CAPTCHAs and difficult for bots to do the same.
- Abstract(参考訳): コンピュータがユーザーを人間かどうかをテストするチューリングテストの逆行を経ることなく、人間は日々の生活で働くことがますます難しくなってきている。
今日、ほとんどのウェブサイトやサービスプロバイダは、ウェブサイトがクロールされているかどうかを、サイトから貴重な情報を抽出する自動化ボットによってチェックするプロセスを持っている。
この過程で、ボットはDeep Learningの技術を使ってこれらのテストを解読し、不要な自動でデータにアクセスし、スパムを投稿することで迷惑を発生させる。
人間はCAPTCHAを解読しようとすると、ほぼ毎日かなりの時間を費やします。
本研究の目的は,CAPTCHAのテキストとして広く使用されているCAPTCHAのサブセットの使用が,人間の顧客を検証するための信頼性の高いプロセスであるかどうかを確認することである。
各CAPTCHAのプリプロセッシングステップに焦点をあて、二分強度で変換し、混乱を可能な限り除去し、可能な限り多くのCAPTCHAを正しくラベル付けする様々なモデルを開発した。
我々はまた、人間が既存のCAPTCHAを解くのが簡単で、ボットが同じことをするのが難しくなるように、人間を検証するプロセスを改善する方法をいくつか提案した。
関連論文リスト
- Breaking reCAPTCHAv2 [20.706469085872516]
画像分割と分類のための高度なYOLOモデルを用いて,キャプチャの解法における自動システムの有効性を評価する。
以上の結果から,reCAPTCHAv2のキャプチャを通過させるためには,人間とボットが解決しなければならない課題の数に有意な差はないことが示唆された。
論文 参考訳(メタデータ) (2024-09-13T13:47:12Z) - Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - A Survey of Adversarial CAPTCHAs on its History, Classification and
Generation [69.36242543069123]
本稿では, 逆CAPTCHAの定義を拡張し, 逆CAPTCHAの分類法を提案する。
また, 敵CAPTCHAの防御に使用可能な防御方法も分析し, 敵CAPTCHAに対する潜在的な脅威を示す。
論文 参考訳(メタデータ) (2023-11-22T08:44:58Z) - Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware [132.39281056124312]
ケーブル接続のスレッディングやバッテリーのスロットングといった細かい操作は、ロボットにとって非常に難しい。
本稿では,実演からエンド・ツー・エンドの模倣学習を行う低コストシステムを提案する。
本研究では, 動作系列の生成モデルを学習する, 単純だが斬新なアルゴリズムであるAction Chunking with Transformersを開発した。
論文 参考訳(メタデータ) (2023-04-23T19:10:53Z) - Vulnerability analysis of captcha using Deep learning [0.0]
本研究ではCAPTCHA生成システムの欠陥と脆弱性について検討する。
これを実現するために、我々は畳み込みニューラルネットワークであるCapNetを開発した。
提案プラットフォームは,数値およびアルファ数値CAPTCHAの両方を評価することができる
論文 参考訳(メタデータ) (2023-02-18T17:45:11Z) - Human-to-Robot Imitation in the Wild [50.49660984318492]
本研究では,第三者の視点からの学習を中心に,効率的なワンショットロボット学習アルゴリズムを提案する。
実世界における20種類の操作タスクを含む,ワンショットの一般化と成功を示す。
論文 参考訳(メタデータ) (2022-07-19T17:59:59Z) - Robust Text CAPTCHAs Using Adversarial Examples [129.29523847765952]
Robust Text CAPTCHA (RTC) という,ユーザフレンドリーなテキストベースのCAPTCHA生成法を提案する。
第1段階では、前景と背景はランダムにサンプルされたフォントと背景画像で構成される。
第2段階では、CAPTCHAの解法をより妨害するために、高転送可能な逆攻撃をテキストCAPTCHAに適用する。
論文 参考訳(メタデータ) (2021-01-07T11:03:07Z) - Capture the Bot: Using Adversarial Examples to Improve CAPTCHA
Robustness to Bot Attacks [4.498333418544154]
本稿では,新しいCAPTCHA方式であるCAPTUREを紹介する。
実験により,CAPTUREは人間による解決が容易なCAPTCHAを生成できることを示した。
論文 参考訳(メタデータ) (2020-10-30T11:39:04Z) - Deep-CAPTCHA: a deep learning based CAPTCHA solver for vulnerability
assessment [1.027974860479791]
本研究では,CAPTCHAジェネレータシステムの弱点と脆弱性について検討する。
この目的を達成するために,Deep-CAPTCHAと呼ばれる畳み込みニューラルネットワークを開発した。
我々のネットワークのクラック精度は、数値およびアルファ数値テストデータセットの98.94%と98.31%のハイレートにつながる。
論文 参考訳(メタデータ) (2020-06-15T11:44:43Z) - Detection of Novel Social Bots by Ensembles of Specialized Classifiers [60.63582690037839]
悪意ある俳優は、社会ボットとして知られるアルゴリズムによって部分的に制御される不正なソーシャルメディアアカウントを作成し、誤情報を広め、オンラインでの議論を扇動する。
異なるタイプのボットが、異なる行動特徴によって特徴づけられることを示す。
本稿では,ボットのクラスごとに専門的な分類器を訓練し,それらの決定を最大ルールで組み合わせる,教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T22:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。