論文の概要: ScamFerret: Detecting Scam Websites Autonomously with Large Language Models
- arxiv url: http://arxiv.org/abs/2502.10110v1
- Date: Fri, 14 Feb 2025 12:16:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 18:06:10.780560
- Title: ScamFerret: Detecting Scam Websites Autonomously with Large Language Models
- Title(参考訳): ScamFerret: 大規模な言語モデルでスカムサイトを自動的に検出する
- Authors: Hiroki Nakano, Takashi Koide, Daiki Chiba,
- Abstract要約: ScamFerretは、大きな言語モデル(LLM)を使用して、特定のURLからデータを自律的に収集して分析し、それが詐欺であるかどうかを判断する革新的なエージェントシステムである。
評価の結果、ScamFerretは英語で4つの詐欺タイプを分類する0.972の精度と、オンラインショッピングサイトを3つの言語で分類する0.993の精度を達成できた。
- 参考スコア(独自算出の注目度): 2.6217304977339473
- License:
- Abstract: With the rise of sophisticated scam websites that exploit human psychological vulnerabilities, distinguishing between legitimate and scam websites has become increasingly challenging. This paper presents ScamFerret, an innovative agent system employing a large language model (LLM) to autonomously collect and analyze data from a given URL to determine whether it is a scam. Unlike traditional machine learning models that require large datasets and feature engineering, ScamFerret leverages LLMs' natural language understanding to accurately identify scam websites of various types and languages without requiring additional training or fine-tuning. Our evaluation demonstrated that ScamFerret achieves 0.972 accuracy in classifying four scam types in English and 0.993 accuracy in classifying online shopping websites across three different languages, particularly when using GPT-4. Furthermore, we confirmed that ScamFerret collects and analyzes external information such as web content, DNS records, and user reviews as necessary, providing a basis for identifying scam websites from multiple perspectives. These results suggest that LLMs have significant potential in enhancing cybersecurity measures against sophisticated scam websites.
- Abstract(参考訳): 人間の心理的脆弱性を悪用する高度な詐欺ウェブサイトの出現に伴い、合法的な詐欺ウェブサイトと詐欺ウェブサイトの区別はますます困難になっている。
本稿では,大規模な言語モデル(LLM)を用いて,URLからデータを収集し解析し,それが詐欺であるかどうかを判断する,革新的なエージェントシステムであるScamFerretを提案する。
大規模なデータセットと機能エンジニアリングを必要とする従来の機械学習モデルとは異なり、ScamFerretはLLMの自然言語理解を活用して、追加のトレーニングや微調整を必要とせずに、さまざまなタイプや言語の詐欺ウェブサイトを正確に識別する。
評価の結果、ScamFerretは英語で4つの詐欺タイプを分類する0.972精度、オンラインショッピングサイトを3つの言語で分類する0.993精度を実現している。
さらに、ScamFerretは、Webコンテンツ、DNSレコード、ユーザレビューなどの外部情報を必要に応じて収集、分析し、複数の視点から詐欺ウェブサイトを識別する基盤を提供することを確認した。
これらの結果は、LSMが高度な詐欺ウェブサイトに対するサイバーセキュリティ対策を強化する大きな可能性を示唆している。
関連論文リスト
- Distinguishing Scams and Fraud with Ensemble Learning [0.8192907805418583]
消費者金融保護局の苦情データベースは、ユーザ詐欺クエリにおけるLCMのパフォーマンスを評価するための豊富なデータソースである。
我々は詐欺やCFPBの苦情を識別するためのアンサンブルアプローチを開発した。
論文 参考訳(メタデータ) (2024-12-11T18:07:18Z) - Exposing LLM Vulnerabilities: Adversarial Scam Detection and Performance [16.9071617169937]
本稿では, 大規模言語モデル (LLM) の脆弱性を, 詐欺検出のタスクに対して対向詐欺メッセージに直面する際の脆弱性について検討する。
我々は、オリジナルメッセージと逆詐欺メッセージの両方を含む、きめ細かいスカムメッセージのラベル付き包括的なデータセットを作成しました。
分析の結果, LLMの脆弱性を利用した逆例は, 高い誤分類率をもたらすことがわかった。
論文 参考訳(メタデータ) (2024-12-01T00:13:28Z) - Evaluating the Efficacy of Large Language Models in Identifying Phishing Attempts [2.6012482282204004]
何十年にもわたるサイバー犯罪戦術であるフィッシングは、今日のデジタル世界において大きな脅威となっている。
本稿では,15大言語モデル (LLM) がフィッシング手法の検出に有効であることを示す。
論文 参考訳(メタデータ) (2024-04-23T19:55:18Z) - Multimodal Large Language Models to Support Real-World Fact-Checking [80.41047725487645]
MLLM(Multimodal large language model)は、膨大な情報処理において人間を支援する能力を持つ。
MLLMはすでにファクトチェックツールとして使用されていますが、その能力や制限については検討中です。
本稿では,現実のファクトチェックを容易にするために,現在のマルチモーダルモデルの能力を体系的に評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-06T11:32:41Z) - An Explainable Transformer-based Model for Phishing Email Detection: A
Large Language Model Approach [2.8282906214258805]
フィッシングメール(英: Phishing email)は、機密情報を盗んだり、金銭的損害を与える目的で偽のメールを送ることによって、ユーザーを騙そうとする深刻なサイバー脅威である。
大規模な学術研究にもかかわらず、フィッシング検出はサイバーセキュリティの分野で今も進行中で恐ろしい課題である。
フィッシングメールの検出のために最適化された微調整変換器を用いた DistilBERT モデルを提案する。
論文 参考訳(メタデータ) (2024-02-21T15:23:21Z) - Detecting Scams Using Large Language Models [19.7220607313348]
大規模言語モデル(LLM)は、セキュリティなど、様々なアプリケーションで注目を集めている。
本稿では,サイバーセキュリティの重要な側面である詐欺検知におけるLCMの有用性について検討する。
フィッシング、前払い詐欺、ロマンス詐欺などの詐欺を識別するためのLLMの新しいユースケースを提案する。
論文 参考訳(メタデータ) (2024-02-05T16:13:54Z) - The Curse of Recursion: Training on Generated Data Makes Models Forget [70.02793975243212]
大規模言語モデル(LLM)が存続し、オンラインテキストと画像のエコシステム全体に劇的な変化をもたらすだろう。
トレーニングにおけるモデル生成コンテンツの使用は、元のコンテンツ分布の尾部が消える結果のモデルに不可逆的な欠陥を引き起こす。
論文 参考訳(メタデータ) (2023-05-27T15:10:41Z) - The Web Can Be Your Oyster for Improving Large Language Models [98.72358969495835]
大規模言語モデル(LLM)は、大量の世界の知識を符号化する。
我々はLLMを検索エンジンを用いて大規模ウェブで拡張することを検討する。
ウェブ上に拡張されたLLM UNIWEBを提案する。これは16の知識集約的なタスクに対して、統一されたテキスト・テキスト・フォーマットで訓練される。
論文 参考訳(メタデータ) (2023-05-18T14:20:32Z) - Is ChatGPT Good at Search? Investigating Large Language Models as Re-Ranking Agents [53.78782375511531]
大規模言語モデル(LLM)は、様々な言語関連タスクにまたがる顕著なゼロショットの一般化を実証している。
本稿では、情報検索(IR)における関連性ランキングのためのジェネレーティブLLMについて検討する。
LLMのデータ汚染に関する懸念に対処するため,我々はNovereEvalという新しいテストセットを収集した。
実世界のアプリケーションの効率を向上させるため、ChatGPTのランキング能力を小さな特殊モデルに蒸留する可能性を探る。
論文 参考訳(メタデータ) (2023-04-19T10:16:03Z) - Deep convolutional forest: a dynamic deep ensemble approach for spam
detection in text [219.15486286590016]
本稿では,スパム検出のための動的深層アンサンブルモデルを提案する。
その結果、このモデルは高い精度、リコール、f1スコア、98.38%の精度を達成した。
論文 参考訳(メタデータ) (2021-10-10T17:19:37Z) - Imitation Attacks and Defenses for Black-box Machine Translation Systems [86.92681013449682]
ブラックボックス機械翻訳(MT)システムは高い商業価値を持ち、エラーはコストがかかる。
MTシステムはモノリンガル文を問合せし,その出力を模倣する訓練モデルを用いて盗むことができることを示す。
本稿では,模倣モデルの最適化を誤指示するために,翻訳出力を変更するディフェンスを提案する。
論文 参考訳(メタデータ) (2020-04-30T17:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。