論文の概要: Deceiving computers in Reverse Turing Test through Deep Learning
- arxiv url: http://arxiv.org/abs/2006.11373v1
- Date: Mon, 1 Jun 2020 10:11:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 06:58:23.099949
- Title: Deceiving computers in Reverse Turing Test through Deep Learning
- Title(参考訳): ディープラーニングによる逆チューリングテストにおけるコンピュータの騙し
- Authors: Jimut Bahan Pal
- Abstract要約: 現在、ほとんどのWebサイトやサービスプロバイダは、自分のWebサイトが自動化ボットによってクロールされているかどうかをチェックするプロセスを持っています。
本研究の目的は,CAPTCHAのテキストとして広く使用されているCAPTCHAのサブセットの使用が,人間の顧客を検証するための信頼性の高いプロセスであるかどうかを確認することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is increasingly becoming difficult for human beings to work on their day
to day life without going through the process of reverse Turing test, where the
Computers tests the users to be humans or not. Almost every website and service
providers today have the process of checking whether their website is being
crawled or not by automated bots which could extract valuable information from
their site. In the process the bots are getting more intelligent by the use of
Deep Learning techniques to decipher those tests and gain unwanted automated
access to data while create nuisance by posting spam. Humans spend a
considerable amount of time almost every day when trying to decipher CAPTCHAs.
The aim of this investigation is to check whether the use of a subset of
commonly used CAPTCHAs, known as the text CAPTCHA is a reliable process for
verifying their human customers. We mainly focused on the preprocessing step
for every CAPTCHA which converts them in binary intensity and removes the
confusion as much as possible and developed various models to correctly label
as many CAPTCHAs as possible. We also suggested some ways to improve the
process of verifying the humans which makes it easy for humans to solve the
existing CAPTCHAs and difficult for bots to do the same.
- Abstract(参考訳): コンピュータがユーザーを人間かどうかをテストするチューリングテストの逆行を経ることなく、人間は日々の生活で働くことがますます難しくなってきている。
今日、ほとんどのウェブサイトやサービスプロバイダは、ウェブサイトがクロールされているかどうかを、サイトから貴重な情報を抽出する自動化ボットによってチェックするプロセスを持っている。
この過程で、ボットはDeep Learningの技術を使ってこれらのテストを解読し、不要な自動でデータにアクセスし、スパムを投稿することで迷惑を発生させる。
人間はCAPTCHAを解読しようとすると、ほぼ毎日かなりの時間を費やします。
本研究の目的は,CAPTCHAのテキストとして広く使用されているCAPTCHAのサブセットの使用が,人間の顧客を検証するための信頼性の高いプロセスであるかどうかを確認することである。
各CAPTCHAのプリプロセッシングステップに焦点をあて、二分強度で変換し、混乱を可能な限り除去し、可能な限り多くのCAPTCHAを正しくラベル付けする様々なモデルを開発した。
我々はまた、人間が既存のCAPTCHAを解くのが簡単で、ボットが同じことをするのが難しくなるように、人間を検証するプロセスを改善する方法をいくつか提案した。
関連論文リスト
- A Survey of Adversarial CAPTCHAs on its History, Classification and
Generation [69.36242543069123]
本稿では, 逆CAPTCHAの定義を拡張し, 逆CAPTCHAの分類法を提案する。
また, 敵CAPTCHAの防御に使用可能な防御方法も分析し, 敵CAPTCHAに対する潜在的な脅威を示す。
論文 参考訳(メタデータ) (2023-11-22T08:44:58Z) - How Secure is Your Website? A Comprehensive Investigation on CAPTCHA
Providers and Solving Services [8.46044160373362]
ボットが生み出した収益は、CAPTCHAを回避して利益を上げるビジネスへと変貌を遂げた。
最新のCAPTCHAは、人間の解法と自動解法の両方に弱い。
ハードAI問題と行動分析に基づく新しいCAPTCHAが必要である。
論文 参考訳(メタデータ) (2023-06-13T05:24:57Z) - Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware [132.39281056124312]
ケーブル接続のスレッディングやバッテリーのスロットングといった細かい操作は、ロボットにとって非常に難しい。
本稿では,実演からエンド・ツー・エンドの模倣学習を行う低コストシステムを提案する。
本研究では, 動作系列の生成モデルを学習する, 単純だが斬新なアルゴリズムであるAction Chunking with Transformersを開発した。
論文 参考訳(メタデータ) (2023-04-23T19:10:53Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Vulnerability analysis of captcha using Deep learning [0.0]
本研究ではCAPTCHA生成システムの欠陥と脆弱性について検討する。
これを実現するために、我々は畳み込みニューラルネットワークであるCapNetを開発した。
提案プラットフォームは,数値およびアルファ数値CAPTCHAの両方を評価することができる
論文 参考訳(メタデータ) (2023-02-18T17:45:11Z) - Human-to-Robot Imitation in the Wild [50.49660984318492]
本研究では,第三者の視点からの学習を中心に,効率的なワンショットロボット学習アルゴリズムを提案する。
実世界における20種類の操作タスクを含む,ワンショットの一般化と成功を示す。
論文 参考訳(メタデータ) (2022-07-19T17:59:59Z) - Robust Text CAPTCHAs Using Adversarial Examples [129.29523847765952]
Robust Text CAPTCHA (RTC) という,ユーザフレンドリーなテキストベースのCAPTCHA生成法を提案する。
第1段階では、前景と背景はランダムにサンプルされたフォントと背景画像で構成される。
第2段階では、CAPTCHAの解法をより妨害するために、高転送可能な逆攻撃をテキストCAPTCHAに適用する。
論文 参考訳(メタデータ) (2021-01-07T11:03:07Z) - Capture the Bot: Using Adversarial Examples to Improve CAPTCHA
Robustness to Bot Attacks [4.498333418544154]
本稿では,新しいCAPTCHA方式であるCAPTUREを紹介する。
実験により,CAPTUREは人間による解決が容易なCAPTCHAを生成できることを示した。
論文 参考訳(メタデータ) (2020-10-30T11:39:04Z) - Deep-CAPTCHA: a deep learning based CAPTCHA solver for vulnerability
assessment [1.027974860479791]
本研究では,CAPTCHAジェネレータシステムの弱点と脆弱性について検討する。
この目的を達成するために,Deep-CAPTCHAと呼ばれる畳み込みニューラルネットワークを開発した。
我々のネットワークのクラック精度は、数値およびアルファ数値テストデータセットの98.94%と98.31%のハイレートにつながる。
論文 参考訳(メタデータ) (2020-06-15T11:44:43Z) - Detection of Novel Social Bots by Ensembles of Specialized Classifiers [60.63582690037839]
悪意ある俳優は、社会ボットとして知られるアルゴリズムによって部分的に制御される不正なソーシャルメディアアカウントを作成し、誤情報を広め、オンラインでの議論を扇動する。
異なるタイプのボットが、異なる行動特徴によって特徴づけられることを示す。
本稿では,ボットのクラスごとに専門的な分類器を訓練し,それらの決定を最大ルールで組み合わせる,教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T22:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。