論文の概要: CASE: An Agentic AI Framework for Enhancing Scam Intelligence in Digital Payments
- arxiv url: http://arxiv.org/abs/2508.19932v1
- Date: Wed, 27 Aug 2025 14:47:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.670946
- Title: CASE: An Agentic AI Framework for Enhancing Scam Intelligence in Digital Payments
- Title(参考訳): Case: デジタル支払いにおける詐欺インテリジェンスを強化するエージェントAIフレームワーク
- Authors: Nitish Jaipuria, Lorenzo Gatto, Zijun Kan, Shankey Poddar, Bill Cheung, Diksha Bansal, Ramanan Balakrishnan, Aviral Suri, Jose Estevez,
- Abstract要約: 本稿では,新しいエージェントAIフレームワークであるCASE(Conversational Agent for Scam Elucidation)を提案する。
会話エージェントは、潜在的な犠牲者を積極的にインタビューし、詳細な会話の形でインテリジェンスを引き出すように設計されている。
この新しいインテリジェンスによって既存の機能を増強することで、詐欺行為の量で21%のアップリフトが観測された。
- 参考スコア(独自算出の注目度): 0.24378845585726894
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of digital payment platforms has transformed commerce, offering unmatched convenience and accessibility globally. However, this growth has also attracted malicious actors, leading to a corresponding increase in sophisticated social engineering scams. These scams are often initiated and orchestrated on multiple surfaces outside the payment platform, making user and transaction-based signals insufficient for a complete understanding of the scam's methodology and underlying patterns, without which it is very difficult to prevent it in a timely manner. This paper presents CASE (Conversational Agent for Scam Elucidation), a novel Agentic AI framework that addresses this problem by collecting and managing user scam feedback in a safe and scalable manner. A conversational agent is uniquely designed to proactively interview potential victims to elicit intelligence in the form of a detailed conversation. The conversation transcripts are then consumed by another AI system that extracts information and converts it into structured data for downstream usage in automated and manual enforcement mechanisms. Using Google's Gemini family of LLMs, we implemented this framework on Google Pay (GPay) India. By augmenting our existing features with this new intelligence, we have observed a 21% uplift in the volume of scam enforcements. The architecture and its robust evaluation framework are highly generalizable, offering a blueprint for building similar AI-driven systems to collect and manage scam intelligence in other sensitive domains.
- Abstract(参考訳): デジタル決済プラットフォームの普及は商業に変化をもたらし、世界中で不整合の利便性とアクセシビリティを提供している。
しかし、この成長は悪質な俳優も惹きつけており、それに伴う高度な社会工学の詐欺の増加につながっている。
これらの詐欺は、しばしば支払いプラットフォーム外の複数の面で開始・編成され、ユーザーおよびトランザクションベースの信号が詐欺の方法論と根底にあるパターンを完全に理解するには不十分であり、タイムリーに防止することが非常に困難である。
本稿では,ユーザ詐欺フィードバックを安全かつスケーラブルに収集・管理することで,この問題に対処するエージェントAIフレームワークであるCASE(Conversational Agent for Scam Elucidation)を提案する。
会話エージェントは、潜在的な犠牲者を積極的にインタビューし、詳細な会話の形でインテリジェンスを引き出すように設計されている。
会話の書き起こしは、別のAIシステムによって消費され、情報を取り出し、それを構造化データに変換して、自動および手動の強制機構で下流の使用に使用する。
GoogleのLLMのGeminiファミリを使用して、Google Pay(GPay) India上でこのフレームワークを実装しました。
この新しいインテリジェンスによって既存の機能を増強することで、詐欺行為の量で21%のアップリフトが観測された。
アーキテクチャとその堅牢な評価フレームワークは、非常に一般化可能であり、他の機密ドメインで詐欺情報を収集し管理する、類似のAI駆動システムを構築するための青写真を提供する。
関連論文リスト
- ScamAgents: How AI Agents Can Simulate Human-Level Scam Calls [0.0]
ScamAgentは、Large Language Models (LLMs)上に構築された自律マルチターンエージェントである。
我々は,ScamAgentが対話記憶を維持し,ユーザ応答のシミュレーションに動的に適応し,会話のターンにまたがる知覚的説得戦略を採用することを示す。
本研究は,多ターン型安全監査,エージェントレベル制御フレームワーク,および生成型AIによる会話の騙しを検知し,阻止する新たな手法の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-08-08T17:01:41Z) - Agentic Web: Weaving the Next Web with AI Agents [109.13815627467514]
大規模言語モデル(LLM)を活用したAIエージェントの出現は、エージェントWebに対する重要な転換点である。
このパラダイムでは、エージェントが直接対話して、ユーザに代わって複雑なタスクを計画、コーディネート、実行します。
本稿では,エージェントWebの理解と構築のための構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-28T17:58:12Z) - A Survey of LLM-Driven AI Agent Communication: Protocols, Security Risks, and Defense Countermeasures [59.43633341497526]
大規模言語モデル駆動型AIエージェントは、前例のない知性と適応性を示している。
エージェントコミュニケーションは、未来のAIエコシステムの基礎的な柱と見なされている。
本稿では,エージェント通信セキュリティに関する包括的調査を行う。
論文 参考訳(メタデータ) (2025-06-24T14:44:28Z) - Among Us: A Sandbox for Measuring and Detecting Agentic Deception [1.1893676124374688]
我々は、言語ベースのエージェントが長期的かつオープンな偽装を示す社会的偽装ゲームである$textitAmong Us$を紹介した。
RLで訓練されたモデルは、検出するよりも、比較的優れた騙しを生み出すことが分かりました。
また、2つのSAE機能は、偽造検出でうまく機能するが、モデルがより少ない嘘をつくように操ることができない。
論文 参考訳(メタデータ) (2025-04-05T06:09:32Z) - Real AI Agents with Fake Memories: Fatal Context Manipulation Attacks on Web3 Agents [36.49717045080722]
本稿では,ブロックチェーンベースの金融エコシステムにおけるAIエージェントの脆弱性を,現実のシナリオにおける敵対的脅威に曝露した場合に検討する。
保護されていないコンテキストサーフェスを利用する包括的攻撃ベクトルであるコンテキスト操作の概念を導入する。
ElizaOSを使用することで、不正なインジェクションをプロンプトや履歴レコードに注入することで、不正なアセット転送やプロトコル違反が引き起こされることを示す。
論文 参考訳(メタデータ) (2025-03-20T15:44:31Z) - BounTCHA: A CAPTCHA Utilizing Boundary Identification in Guided Generative AI-extended Videos [4.873950690073118]
ボットは、既存のCAPTCHAシステムの多くをバイパスし、Webアプリケーションに重大なセキュリティ上の脅威を生じさせている。
ビデオのトランジションやディスラプションにおける境界に対する人間の認識を活用するCAPTCHA機構であるBounTCHAの設計と実装を行う。
我々は,境界同定における人間の時間偏差データ収集のためのプロトタイプを開発し,実験を行った。
論文 参考訳(メタデータ) (2025-01-30T18:38:09Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。