論文の概要: CASE: An Agentic AI Framework for Enhancing Scam Intelligence in Digital Payments
- arxiv url: http://arxiv.org/abs/2508.19932v1
- Date: Wed, 27 Aug 2025 14:47:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.670946
- Title: CASE: An Agentic AI Framework for Enhancing Scam Intelligence in Digital Payments
- Title(参考訳): Case: デジタル支払いにおける詐欺インテリジェンスを強化するエージェントAIフレームワーク
- Authors: Nitish Jaipuria, Lorenzo Gatto, Zijun Kan, Shankey Poddar, Bill Cheung, Diksha Bansal, Ramanan Balakrishnan, Aviral Suri, Jose Estevez,
- Abstract要約: 本稿では,新しいエージェントAIフレームワークであるCASE(Conversational Agent for Scam Elucidation)を提案する。
会話エージェントは、潜在的な犠牲者を積極的にインタビューし、詳細な会話の形でインテリジェンスを引き出すように設計されている。
この新しいインテリジェンスによって既存の機能を増強することで、詐欺行為の量で21%のアップリフトが観測された。
- 参考スコア(独自算出の注目度): 0.24378845585726894
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of digital payment platforms has transformed commerce, offering unmatched convenience and accessibility globally. However, this growth has also attracted malicious actors, leading to a corresponding increase in sophisticated social engineering scams. These scams are often initiated and orchestrated on multiple surfaces outside the payment platform, making user and transaction-based signals insufficient for a complete understanding of the scam's methodology and underlying patterns, without which it is very difficult to prevent it in a timely manner. This paper presents CASE (Conversational Agent for Scam Elucidation), a novel Agentic AI framework that addresses this problem by collecting and managing user scam feedback in a safe and scalable manner. A conversational agent is uniquely designed to proactively interview potential victims to elicit intelligence in the form of a detailed conversation. The conversation transcripts are then consumed by another AI system that extracts information and converts it into structured data for downstream usage in automated and manual enforcement mechanisms. Using Google's Gemini family of LLMs, we implemented this framework on Google Pay (GPay) India. By augmenting our existing features with this new intelligence, we have observed a 21% uplift in the volume of scam enforcements. The architecture and its robust evaluation framework are highly generalizable, offering a blueprint for building similar AI-driven systems to collect and manage scam intelligence in other sensitive domains.
- Abstract(参考訳): デジタル決済プラットフォームの普及は商業に変化をもたらし、世界中で不整合の利便性とアクセシビリティを提供している。
しかし、この成長は悪質な俳優も惹きつけており、それに伴う高度な社会工学の詐欺の増加につながっている。
これらの詐欺は、しばしば支払いプラットフォーム外の複数の面で開始・編成され、ユーザーおよびトランザクションベースの信号が詐欺の方法論と根底にあるパターンを完全に理解するには不十分であり、タイムリーに防止することが非常に困難である。
本稿では,ユーザ詐欺フィードバックを安全かつスケーラブルに収集・管理することで,この問題に対処するエージェントAIフレームワークであるCASE(Conversational Agent for Scam Elucidation)を提案する。
会話エージェントは、潜在的な犠牲者を積極的にインタビューし、詳細な会話の形でインテリジェンスを引き出すように設計されている。
会話の書き起こしは、別のAIシステムによって消費され、情報を取り出し、それを構造化データに変換して、自動および手動の強制機構で下流の使用に使用する。
GoogleのLLMのGeminiファミリを使用して、Google Pay(GPay) India上でこのフレームワークを実装しました。
この新しいインテリジェンスによって既存の機能を増強することで、詐欺行為の量で21%のアップリフトが観測された。
アーキテクチャとその堅牢な評価フレームワークは、非常に一般化可能であり、他の機密ドメインで詐欺情報を収集し管理する、類似のAI駆動システムを構築するための青写真を提供する。
関連論文リスト
- Anansi: Scalable Characterization of Message-Based Job Scams [4.132349063771989]
ジョブベースのスマイシング詐欺は、オンライン詐欺の幅広い状況の中で急速に増加し、過小評価されている脅威を表している。
Anansiは最初のスケーラブルでエンドツーエンドの計測パイプラインで、野生のジョブ詐欺と体系的に関わり、分析し、特徴付けるように設計されている。
論文 参考訳(メタデータ) (2026-02-27T17:49:56Z) - A Multi-Turn Framework for Evaluating AI Misuse in Fraud and Cybercrime Scenarios [1.1864532555108382]
現在の大規模言語モデルが、複雑な犯罪活動に有用な情報を提供しているかは、不明である。
我々は、ドメインの専門家が評価したように、モデルがWeb上で一般的に利用可能な情報を超えて実行可能な支援を提供するかどうかを評価する。
その結果,(1)現在の大規模言語モデルは,高度なジェイルブレイク技術を用いることなく,詐欺やサイバー犯罪の最小限の情報を提供することがわかった。
論文 参考訳(メタデータ) (2026-02-25T12:01:38Z) - When AI Agents Collude Online: Financial Fraud Risks by Collaborative LLM Agents on Social Platforms [101.2197679948061]
大規模言語モデル(LLM)エージェントを用いた大規模マルチエージェントシステムにおける集団金融詐欺のリスクについて検討する。
金融詐欺シナリオをシミュレーションするための大規模ベンチマークであるMultiAgentFraudBenchを提案する。
論文 参考訳(メタデータ) (2025-11-09T16:30:44Z) - EQ-Negotiator: Dynamic Emotional Personas Empower Small Language Models for Edge-Deployable Credit Negotiation [66.09161596959771]
小型言語モデル (SLM) は実用的な代替手段を提供するが、大規模言語モデル (LLM) と比較して大きな性能差がある。
本稿では,感情的ペルソナを用いて,この能力ギャップを橋渡しする新しいフレームワークであるEQ-Negotiatorを紹介する。
EQ-Negotiator を用いた 7B パラメータ言語モデルは,ベースライン LLM の 10 倍以上の大きさで,債務回復と交渉効率が向上することを示す。
論文 参考訳(メタデータ) (2025-11-05T11:25:07Z) - Send to which account? Evaluation of an LLM-based Scambaiting System [0.0]
本稿では,大規模言語モデル(LLM)を用いたスカンバイティングシステムの大規模実世界評価について述べる。
5ヶ月にわたるデプロイメントで、システムは実際のスキャマーと2,600以上のエンゲージメントを開始し、18,700以上のメッセージのデータセットを作成した。
情報開示率(IDR)は約32%に達し、ラバ口座などの機密情報を抽出することに成功している。
論文 参考訳(メタデータ) (2025-09-10T11:08:52Z) - Throttling Web Agents Using Reasoning Gates [24.00110215260136]
我々は、リソースへのアクセスを提供する前にエージェントに調整可能なコストを課すフレームワークを設計する。
我々は、世界の知識に対してマルチホップ推論を必要とする合成テキストパズルであるReasoning Gatesを紹介する。
本フレームワークは,SOTAモデルの生成コストよりも応答生成コストが9.2倍高い計算非対称性を実現する。
論文 参考訳(メタデータ) (2025-09-01T16:56:16Z) - ScamAgents: How AI Agents Can Simulate Human-Level Scam Calls [0.0]
ScamAgentは、Large Language Models (LLMs)上に構築された自律マルチターンエージェントである。
我々は,ScamAgentが対話記憶を維持し,ユーザ応答のシミュレーションに動的に適応し,会話のターンにまたがる知覚的説得戦略を採用することを示す。
本研究は,多ターン型安全監査,エージェントレベル制御フレームワーク,および生成型AIによる会話の騙しを検知し,阻止する新たな手法の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-08-08T17:01:41Z) - Agentic Web: Weaving the Next Web with AI Agents [109.13815627467514]
大規模言語モデル(LLM)を活用したAIエージェントの出現は、エージェントWebに対する重要な転換点である。
このパラダイムでは、エージェントが直接対話して、ユーザに代わって複雑なタスクを計画、コーディネート、実行します。
本稿では,エージェントWebの理解と構築のための構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-28T17:58:12Z) - A Survey of LLM-Driven AI Agent Communication: Protocols, Security Risks, and Defense Countermeasures [59.43633341497526]
大規模言語モデル駆動型AIエージェントは、前例のない知性と適応性を示している。
エージェントコミュニケーションは、未来のAIエコシステムの基礎的な柱と見なされている。
本稿では,エージェント通信セキュリティに関する包括的調査を行う。
論文 参考訳(メタデータ) (2025-06-24T14:44:28Z) - Among Us: A Sandbox for Measuring and Detecting Agentic Deception [1.1893676124374688]
我々は、言語ベースのエージェントが長期的かつオープンな偽装を示す社会的偽装ゲームである$textitAmong Us$を紹介した。
RLで訓練されたモデルは、検出するよりも、比較的優れた騙しを生み出すことが分かりました。
また、2つのSAE機能は、偽造検出でうまく機能するが、モデルがより少ない嘘をつくように操ることができない。
論文 参考訳(メタデータ) (2025-04-05T06:09:32Z) - Real AI Agents with Fake Memories: Fatal Context Manipulation Attacks on Web3 Agents [36.49717045080722]
本稿では,ブロックチェーンベースの金融エコシステムにおけるAIエージェントの脆弱性を,現実のシナリオにおける敵対的脅威に曝露した場合に検討する。
保護されていないコンテキストサーフェスを利用する包括的攻撃ベクトルであるコンテキスト操作の概念を導入する。
ElizaOSを使用することで、不正なインジェクションをプロンプトや履歴レコードに注入することで、不正なアセット転送やプロトコル違反が引き起こされることを示す。
論文 参考訳(メタデータ) (2025-03-20T15:44:31Z) - BounTCHA: A CAPTCHA Utilizing Boundary Identification in Guided Generative AI-extended Videos [4.873950690073118]
ボットは、既存のCAPTCHAシステムの多くをバイパスし、Webアプリケーションに重大なセキュリティ上の脅威を生じさせている。
ビデオのトランジションやディスラプションにおける境界に対する人間の認識を活用するCAPTCHA機構であるBounTCHAの設計と実装を行う。
我々は,境界同定における人間の時間偏差データ収集のためのプロトタイプを開発し,実験を行った。
論文 参考訳(メタデータ) (2025-01-30T18:38:09Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。