論文の概要: Agentic AI Microservice Framework for Deepfake and Document Fraud Detection in KYC Pipelines
- arxiv url: http://arxiv.org/abs/2601.06241v1
- Date: Fri, 09 Jan 2026 17:01:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.712179
- Title: Agentic AI Microservice Framework for Deepfake and Document Fraud Detection in KYC Pipelines
- Title(参考訳): KYCパイプラインにおけるディープフェイクおよび文書不正検出のためのエージェントAIマイクロサービスフレームワーク
- Authors: Chandra Sekhar Kubam,
- Abstract要約: 合成メディア、プレゼンテーション攻撃、文書偽造は、Know Your Customer (KYC)に重大な脆弱性を生み出している。
本稿では,視覚モデル,ライブネスアセスメント,ディープフェイク検出,OCRベースの文書鑑定,マルチモーダルIDリンク,ポリシ駆動型リスクエンジンを統合したエージェントAIマイクロサービスフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid proliferation of synthetic media, presentation attacks, and document forgeries has created significant vulnerabilities in Know Your Customer (KYC) workflows across financial services, telecommunications, and digital-identity ecosystems. Traditional monolithic KYC systems lack the scalability and agility required to counter adaptive fraud. This paper proposes an Agentic AI Microservice Framework that integrates modular vision models, liveness assessment, deepfake detection, OCR-based document forensics, multimodal identity linking, and a policy driven risk engine. The system leverages autonomous micro-agents for task decomposition, pipeline orchestration, dynamic retries, and human-in-the-loop escalation. Experimental evaluations demonstrate improved detection accuracy, reduced latency, and enhanced resilience against adversarial inputs. The framework offers a scalable blueprint for regulated industries seeking robust, real-time, and privacy-preserving KYC verification.
- Abstract(参考訳): 合成メディアの急激な普及、プレゼンテーション攻撃、ドキュメント偽造は、金融サービス、通信、デジタルアイデンティティエコシステム全体にわたって、KYC(Know Your Customer)ワークフローにおいて重大な脆弱性を生み出している。
従来のモノリシックなKYCシステムは、適応詐欺に対抗するのに必要なスケーラビリティとアジリティを欠いている。
本稿では,モジュール型視覚モデル,ライブネスアセスメント,ディープフェイク検出,OCRベースの文書鑑定,マルチモーダルIDリンク,ポリシ駆動型リスクエンジンを統合したエージェントAIマイクロサービスフレームワークを提案する。
このシステムは、タスクの分解、パイプラインのオーケストレーション、動的リトライ、人間のループエスカレーションに自律的なマイクロエージェントを活用する。
実験により,検出精度の向上,遅延低減,対向入力に対するレジリエンスの向上が示された。
このフレームワークは、ロバストでリアルタイム、プライバシ保護のKYC検証を求める規制業界にとって、スケーラブルな青写真を提供する。
関連論文リスト
- SAFE-QAQ: End-to-End Slow-Thinking Audio-Text Fraud Detection via Reinforcement Learning [52.29460857893198]
既存の不正検出方法は、書き起こされたテキストに依存しており、ASRのエラーや、声調や環境条件のような重要な音響的手がかりが欠けている。
音声に基づくスロー思考詐欺検出のためのエンドツーエンド包括的フレームワークSAFE-QAQを提案する。
本フレームワークは,ライブコール中に動的リスクアセスメントフレームワークを導入し,不正の早期検出と防止を可能にする。
論文 参考訳(メタデータ) (2026-01-04T06:09:07Z) - Agentic AI for Autonomous, Explainable, and Real-Time Credit Risk Decision-Making [0.0]
本稿では、エージェントAIフレームワーク、つまりAIエージェントが人間の観察者に依存しない動的信用の世界を見るシステムを提案する。
この研究は、学習を強化するマルチエージェントシステム、自然言語推論、説明可能なAIモジュール、リアルタイムデータ吸収パイプラインを導入している。
結論からは、意思決定のスピード、透明性、応答性が、従来の信用スコアモデルよりも優れていることが分かる。
論文 参考訳(メタデータ) (2025-12-22T23:30:38Z) - Quantigence: A Multi-Agent AI Framework for Quantum Security Research [0.0]
暗号関連量子コンピュータ(CRQC)は、グローバルデジタル経済に構造的な脅威をもたらす。
我々は、構造化量子セキュリティ分析のための理論駆動型マルチエージェントAIフレームワークQuantigenceを提案する。
論文 参考訳(メタデータ) (2025-12-15T05:27:10Z) - OS-Sentinel: Towards Safety-Enhanced Mobile GUI Agents via Hybrid Validation in Realistic Workflows [77.95511352806261]
VLM(Vision-Language Models)を利用したコンピュータ利用エージェントは、モバイルプラットフォームのようなデジタル環境を操作する上で、人間のような能力を実証している。
我々は,明示的なシステムレベルの違反を検出するための形式検証器と,文脈的リスクとエージェント行動を評価するコンテキスト判断器を組み合わせた,新しいハイブリッド安全検出フレームワークOS-Sentinelを提案する。
論文 参考訳(メタデータ) (2025-10-28T13:22:39Z) - SafeEvalAgent: Toward Agentic and Self-Evolving Safety Evaluation of LLMs [37.82193156438782]
本稿では, エージェント安全評価の新しいパラダイムとして, 継続的かつ自己進化的なプロセスとしてのリフレーミング評価を提案する。
本稿では、構造化されていないポリシー文書を自律的に取り込み、包括的な安全ベンチマークを生成し、永続的に進化させる、新しいマルチエージェントフレームワークSafeEvalAgentを提案する。
本実験はSafeEvalAgentの有効性を実証し,評価が強まるにつれてモデルの安全性が一貫した低下を示す。
論文 参考訳(メタデータ) (2025-09-30T11:20:41Z) - Agentic AI for Financial Crime Compliance [0.0]
本稿では、デジタルネイティブ金融プラットフォームにおける金融犯罪コンプライアンス(FCC)のためのエージェントAIシステムの設計と展開について述べる。
このコントリビューションには、リファレンスアーキテクチャ、現実世界のプロトタイプ、およびAgentic AIが規制下で再構成できる方法に関する洞察が含まれている。
論文 参考訳(メタデータ) (2025-09-16T14:53:51Z) - Expert-in-the-Loop Systems with Cross-Domain and In-Domain Few-Shot Learning for Software Vulnerability Detection [38.083049237330826]
本研究では,CWE(Common Weaknessions)を用いたPythonコードの識別をシミュレーションすることにより,ソフトウェア脆弱性評価におけるLLM(Large Language Models)の利用について検討する。
その結果,ゼロショットプロンプトは性能が低いが,少数ショットプロンプトは分類性能を著しく向上させることがわかった。
モデル信頼性、解釈可能性、敵の堅牢性といった課題は、将来の研究にとって重要な領域のままである。
論文 参考訳(メタデータ) (2025-06-11T18:43:51Z) - Detecting Financial Fraud with Hybrid Deep Learning: A Mix-of-Experts Approach to Sequential and Anomalous Patterns [0.0]
本研究では、Mixture of Experts(MoE)フレームワークとRecurrent Neural Networks(RNN)、Transformer Encoders、Autoencodersを統合したクレジットカード不正検出用ハイブリッドアーキテクチャを提案する。
MoEフレームワークは専門家の予測責任を動的に割り当て、適応的で文脈に敏感な意思決定を可能にする。
提案するハイブリッドシステムは、ますます洗練された詐欺パターンを検出するために、スケーラブルでモジュラーで規制対応のアプローチを提供する。
論文 参考訳(メタデータ) (2025-04-01T20:47:18Z) - Enforcing Cybersecurity Constraints for LLM-driven Robot Agents for Online Transactions [0.0]
大規模言語モデル(LLM)をオンライントランザクションを実行するための自律ロボットエージェントに統合することは、重大なサイバーセキュリティ上の課題を引き起こす。
この研究は、データ漏洩、トランザクション詐欺、システム操作に関連するリスクを軽減するために、堅牢なサイバーセキュリティの制約を強制することを目的としている。
論文 参考訳(メタデータ) (2025-03-17T01:01:10Z) - ACRIC: Securing Legacy Communication Networks via Authenticated Cyclic Redundancy Integrity Check [98.34702864029796]
安全クリティカルな業界における最近のセキュリティインシデントは、適切なメッセージ認証の欠如により、攻撃者が悪意のあるコマンドを注入したり、システムの振る舞いを変更することができることを明らかにした。
これらの欠点は、サイバーセキュリティを強化するために圧力をかける必要性を強調する新しい規制を引き起こしている。
我々は,レガシ産業通信をセキュアにするためのメッセージ認証ソリューションであるACRICを紹介する。
論文 参考訳(メタデータ) (2024-11-21T18:26:05Z) - CryptoFormalEval: Integrating LLMs and Formal Verification for Automated Cryptographic Protocol Vulnerability Detection [41.94295877935867]
我々は,新たな暗号プロトコルの脆弱性を自律的に識別する大規模言語モデルの能力を評価するためのベンチマークを導入する。
私たちは、新しい、欠陥のある通信プロトコルのデータセットを作成し、AIエージェントが発見した脆弱性を自動的に検証する方法を設計しました。
論文 参考訳(メタデータ) (2024-11-20T14:16:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。