論文の概要: Automatic Scam-Baiting Using ChatGPT
- arxiv url: http://arxiv.org/abs/2309.01586v1
- Date: Mon, 4 Sep 2023 13:13:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 23:19:21.988450
- Title: Automatic Scam-Baiting Using ChatGPT
- Title(参考訳): ChatGPTを用いた自動スキャニング
- Authors: Piyush Bajaj, Matthew Edwards,
- Abstract要約: 本稿では,ChatGPTをベースとした2つの自動詐欺バイターの有効性を,コントロール尺度に比較した1ヶ月の試験結果について報告する。
250人以上の実メール詐欺師の関与により、ChatGPTベースの詐欺バイターは、スパム反応率と会話の長さが著しく増加したことが判明した。
本稿では,これらの結果の意義と,自動詐欺ベイティングの広範な展開に向けた実践的考察について論じる。
- 参考スコア(独自算出の注目度): 0.46040036610482665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic scam-baiting is an online fraud countermeasure that involves automated systems responding to online fraudsters in order to waste their time and deplete their resources, diverting attackers away from real potential victims. Previous work has demonstrated that text generation systems are capable of engaging with attackers as automatic scam-baiters, but the fluency and coherence of generated text may be a limit to the effectiveness of such systems. In this paper, we report on the results of a month-long experiment comparing the effectiveness of two ChatGPT-based automatic scam-baiters to a control measure. Within our results, with engagement from over 250 real email fraudsters, we find that ChatGPT-based scam-baiters show a marked increase in scammer response rate and conversation length relative to the control measure, outperforming previous approaches. We discuss the implications of these results and practical considerations for wider deployment of automatic scam-baiting.
- Abstract(参考訳): 自動詐欺ベイティング(Automatic scam-baiting)は、オンライン詐欺師が時間を浪費し、リソースを浪費し、攻撃者を本当の犠牲者から遠ざけるためのオンライン詐欺対策である。
これまでの研究では、テキスト生成システムは自動詐欺バイターとして攻撃者との連携が可能であることが実証されてきたが、生成されたテキストの流布と一貫性は、そのようなシステムの有効性に限界がある可能性がある。
本稿では,ChatGPTをベースとした2つの自動詐欺バイターの有効性を制御尺度に比較した1ヶ月の実験結果について報告する。
その結果,250人以上の実メール詐欺師の関与により,ChatGPTをベースとした詐欺バイターは,制御基準に対するスケマー応答率と会話長が著しく増加し,従来のアプローチよりも優れていたことがわかった。
本稿では,これらの結果の意義と,自動詐欺ベイティングの広範な展開に向けた実践的考察について論じる。
関連論文リスト
- Combating Phone Scams with LLM-based Detection: Where Do We Stand? [1.8979188847659796]
本研究では,大規模言語モデル(LLM)による不正通話の検出の可能性について検討する。
LLMをベースとした検出器は、潜在的な詐欺の発生を検知し、ユーザに対して即時保護を提供する。
論文 参考訳(メタデータ) (2024-09-18T02:14:30Z) - Evaluating the Efficacy of Large Language Models in Identifying Phishing Attempts [2.6012482282204004]
何十年にもわたるサイバー犯罪戦術であるフィッシングは、今日のデジタル世界において大きな脅威となっている。
本稿では,15大言語モデル (LLM) がフィッシング手法の検出に有効であることを示す。
論文 参考訳(メタデータ) (2024-04-23T19:55:18Z) - Evaluating Robustness of Generative Search Engine on Adversarial Factual Questions [89.35345649303451]
生成検索エンジンは、人々がオンラインで情報を求める方法を変える可能性を秘めている。
しかし,既存の大規模言語モデル(LLM)が支援する生成検索エンジンからの応答は必ずしも正確ではない。
検索強化世代は、敵がシステム全体を回避できるため、安全上の懸念を増す。
論文 参考訳(メタデータ) (2024-02-25T11:22:19Z) - FRAUDability: Estimating Users' Susceptibility to Financial Fraud Using Adversarial Machine Learning [24.817067681746117]
本研究では,金融不正検出システムの性能をユーザ毎に推定するFRAUDabilityを提案する。
提案手法は,不正検出システムの特定のユーザに対する金銭的不正を検知する能力の数値的な推定値である「フルートビリティスコア」を生成する。
また,このスコアは,不正性が高いユーザに対してのみ関与することで,攻撃者の財務利益を54%引き上げる上で有効であることを示す。
論文 参考訳(メタデータ) (2023-12-02T18:33:05Z) - Unsupervised detection of coordinated fake-follower campaigns on social
media [1.3035246321276739]
本稿では,悪意のあるアカウントの特定のカテゴリを対象とする教師なし検出手法を提案する。
当社のフレームワークは,ソーシャルメディアアカウントの全フォロワーのうち,異常なパターンを識別する。
検出された異常なフォロワー群は複数のアカウントで一貫した行動を示す。
論文 参考訳(メタデータ) (2023-10-31T12:30:29Z) - Active Countermeasures for Email Fraud [2.6856688022781556]
詐欺師は被害者の役割を演じ、詐欺に反応し、長く非生産的な会話で時間と注意を無駄にしようとする。
我々は、スカムベイティング活動を自動的に行うことができる拡張可能なスカムベイティングメールサーバを開発し、展開した。
論文 参考訳(メタデータ) (2022-10-26T21:20:13Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - Deep convolutional forest: a dynamic deep ensemble approach for spam
detection in text [219.15486286590016]
本稿では,スパム検出のための動的深層アンサンブルモデルを提案する。
その結果、このモデルは高い精度、リコール、f1スコア、98.38%の精度を達成した。
論文 参考訳(メタデータ) (2021-10-10T17:19:37Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Robust Text CAPTCHAs Using Adversarial Examples [129.29523847765952]
Robust Text CAPTCHA (RTC) という,ユーザフレンドリーなテキストベースのCAPTCHA生成法を提案する。
第1段階では、前景と背景はランダムにサンプルされたフォントと背景画像で構成される。
第2段階では、CAPTCHAの解法をより妨害するために、高転送可能な逆攻撃をテキストCAPTCHAに適用する。
論文 参考訳(メタデータ) (2021-01-07T11:03:07Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。