論文の概要: Distinguishing Scams and Fraud with Ensemble Learning
- arxiv url: http://arxiv.org/abs/2412.08680v1
- Date: Wed, 11 Dec 2024 18:07:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 13:34:32.392932
- Title: Distinguishing Scams and Fraud with Ensemble Learning
- Title(参考訳): アンサンブル学習による詐欺と詐欺の排除
- Authors: Isha Chadalavada, Tianhui Huang, Jessica Staddon,
- Abstract要約: 消費者金融保護局の苦情データベースは、ユーザ詐欺クエリにおけるLCMのパフォーマンスを評価するための豊富なデータソースである。
我々は詐欺やCFPBの苦情を識別するためのアンサンブルアプローチを開発した。
- 参考スコア(独自算出の注目度): 0.8192907805418583
- License:
- Abstract: Users increasingly query LLM-enabled web chatbots for help with scam defense. The Consumer Financial Protection Bureau's complaints database is a rich data source for evaluating LLM performance on user scam queries, but currently the corpus does not distinguish between scam and non-scam fraud. We developed an LLM ensemble approach to distinguishing scam and fraud CFPB complaints and describe initial findings regarding the strengths and weaknesses of LLMs in the scam defense context.
- Abstract(参考訳): LLM対応のウェブチャットボットに、詐欺防御の助けを求めるユーザーが増えている。
消費者金融保護局の苦情データベースは、ユーザ詐欺クエリのLLMパフォーマンスを評価するための豊富なデータソースであるが、現在、コーパスは詐欺と詐欺以外の詐欺を区別していない。
詐欺と詐欺のCFPB苦情を識別するLLMアンサンブル法を開発し, 詐欺防衛状況におけるLCMの強みと弱みに関する最初の知見を述べる。
関連論文リスト
- Fraud-R1 : A Multi-Round Benchmark for Assessing the Robustness of LLM Against Augmented Fraud and Phishing Inducements [23.99500412996251]
Fraud-R1は、フィッシング詐欺、偽の求人投稿、ソーシャルメディア、ニュースから発生した8,564件の詐欺事件を5つの主要な詐欺タイプに分類する。
以前のベンチマークとは異なり、Fraud-R1はLLMの不正に対する耐性を異なる段階で評価するためのマルチラウンド評価パイプラインを導入している。
評価の結果,詐欺やフィッシングの誘因を擁護する上で,特にロールプレイ設定や偽職投稿において重要な課題が明らかとなった。
論文 参考訳(メタデータ) (2025-02-18T14:47:02Z) - ScamFerret: Detecting Scam Websites Autonomously with Large Language Models [2.6217304977339473]
ScamFerretは、大きな言語モデル(LLM)を使用して、特定のURLからデータを自律的に収集して分析し、それが詐欺であるかどうかを判断する革新的なエージェントシステムである。
評価の結果、ScamFerretは英語で4つの詐欺タイプを分類する0.972の精度と、オンラインショッピングサイトを3つの言語で分類する0.993の精度を達成できた。
論文 参考訳(メタデータ) (2025-02-14T12:16:38Z) - Token Highlighter: Inspecting and Mitigating Jailbreak Prompts for Large Language Models [61.916827858666906]
大規模言語モデル(LLM)は、ユーザクエリに対する応答を提供するために、ChatGPTなどのサービスに統合されつつある。
本稿では,Token Highlighterという手法を提案する。
論文 参考訳(メタデータ) (2024-12-24T05:10:02Z) - Exposing LLM Vulnerabilities: Adversarial Scam Detection and Performance [16.9071617169937]
本稿では, 大規模言語モデル (LLM) の脆弱性を, 詐欺検出のタスクに対して対向詐欺メッセージに直面する際の脆弱性について検討する。
我々は、オリジナルメッセージと逆詐欺メッセージの両方を含む、きめ細かいスカムメッセージのラベル付き包括的なデータセットを作成しました。
分析の結果, LLMの脆弱性を利用した逆例は, 高い誤分類率をもたらすことがわかった。
論文 参考訳(メタデータ) (2024-12-01T00:13:28Z) - Combating Phone Scams with LLM-based Detection: Where Do We Stand? [1.8979188847659796]
本研究では,大規模言語モデル(LLM)による不正通話の検出の可能性について検討する。
LLMをベースとした検出器は、潜在的な詐欺の発生を検知し、ユーザに対して即時保護を提供する。
論文 参考訳(メタデータ) (2024-09-18T02:14:30Z) - From Yes-Men to Truth-Tellers: Addressing Sycophancy in Large Language Models with Pinpoint Tuning [91.79567270986901]
大規模言語モデル(LLM)は、ユーザプロンプトへの順守を、妥当な応答よりも優先する傾向がある。
近年の研究では、教師付き微調整(SFT)を用いて、梅毒問題を軽減することが提案されている。
そこで本研究では,特定の目的のために関心のあるモジュールを調整した新しいピンポイントチューニング(SPT)を提案する。
論文 参考訳(メタデータ) (2024-09-03T07:01:37Z) - CLAMBER: A Benchmark of Identifying and Clarifying Ambiguous Information Needs in Large Language Models [60.59638232596912]
大規模言語モデル(LLM)を評価するベンチマークであるCLAMBERを紹介する。
分類を基盤として12Kの高品質なデータを構築し, 市販のLCMの強度, 弱点, 潜在的なリスクを評価する。
本研究は, あいまいなユーザクエリの特定と明確化において, 現在のLCMの実用性に限界があることを示唆する。
論文 参考訳(メタデータ) (2024-05-20T14:34:01Z) - Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When and What to Retrieve for LLMs [60.40396361115776]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - Detecting Scams Using Large Language Models [19.7220607313348]
大規模言語モデル(LLM)は、セキュリティなど、様々なアプリケーションで注目を集めている。
本稿では,サイバーセキュリティの重要な側面である詐欺検知におけるLCMの有用性について検討する。
フィッシング、前払い詐欺、ロマンス詐欺などの詐欺を識別するためのLLMの新しいユースケースを提案する。
論文 参考訳(メタデータ) (2024-02-05T16:13:54Z) - SmoothLLM: Defending Large Language Models Against Jailbreaking Attacks [99.23352758320945]
SmoothLLMは,大規模言語モデル(LLM)に対するジェイルブレーキング攻撃を軽減するために設計された,最初のアルゴリズムである。
敵が生成したプロンプトが文字レベルの変化に対して脆弱であることから、我々の防衛はまず、与えられた入力プロンプトの複数のコピーをランダムに摂動し、対応する予測を集約し、敵の入力を検出する。
論文 参考訳(メタデータ) (2023-10-05T17:01:53Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。