論文の概要: Agentic AI for Financial Crime Compliance
- arxiv url: http://arxiv.org/abs/2509.13137v1
- Date: Tue, 16 Sep 2025 14:53:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.133864
- Title: Agentic AI for Financial Crime Compliance
- Title(参考訳): 金融犯罪コンプライアンスのためのエージェントAI
- Authors: Henrik Axelsen, Valdemar Licht, Jan Damsgaard,
- Abstract要約: 本稿では、デジタルネイティブ金融プラットフォームにおける金融犯罪コンプライアンス(FCC)のためのエージェントAIシステムの設計と展開について述べる。
このコントリビューションには、リファレンスアーキテクチャ、現実世界のプロトタイプ、およびAgentic AIが規制下で再構成できる方法に関する洞察が含まれている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The cost and complexity of financial crime compliance (FCC) continue to rise, often without measurable improvements in effectiveness. While AI offers potential, most solutions remain opaque and poorly aligned with regulatory expectations. This paper presents the design and deployment of an agentic AI system for FCC in digitally native financial platforms. Developed through an Action Design Research (ADR) process with a fintech firm and regulatory stakeholders, the system automates onboarding, monitoring, investigation, and reporting, emphasizing explainability, traceability, and compliance-by-design. Using artifact-centric modeling, it assigns clearly bounded roles to autonomous agents and enables task-specific model routing and audit logging. The contribution includes a reference architecture, a real-world prototype, and insights into how Agentic AI can reconfigure FCC workflows under regulatory constraints. Our findings extend IS literature on AI-enabled compliance by demonstrating how automation, when embedded within accountable governance structures, can support transparency and institutional trust in high-stakes, regulated environments.
- Abstract(参考訳): 金融犯罪コンプライアンス(FCC)のコストと複雑さは、しばしば測定可能な有効性の改善なしに上昇し続けている。
AIは潜在的な可能性をもっているが、ほとんどのソリューションは不透明であり、規制の期待に合致していない。
本稿では、デジタルネイティブ金融プラットフォームにおけるFCCのためのエージェントAIシステムの設計と展開について述べる。
フィンテック企業と規制ステークホルダーによるアクションデザインリサーチ(ADR)プロセスを通じて開発されたこのシステムは、オンボード、監視、調査、レポートを自動化するとともに、説明可能性、トレーサビリティ、コンプライアンス・バイ・デザインを強調する。
アーティファクト中心のモデリングを使用して、自律エージェントに明確に境界付けられたロールを割り当て、タスク固有のモデルルーティングと監査ログを可能にする。
このコントリビューションには、リファレンスアーキテクチャ、現実世界のプロトタイプ、およびAgentic AIが規制制約の下でFCCワークフローを再構成する方法についての洞察が含まれている。
私たちの研究は、説明責任のあるガバナンス構造に組み込まれた自動化が、ハイテイクで規制された環境における透明性と制度的な信頼をいかに支援できるかを示すことで、AI対応コンプライアンスに関するISの文献を拡張した。
関連論文リスト
- Enabling Regulatory Multi-Agent Collaboration: Architecture, Challenges, and Solutions [30.046299694187855]
大規模言語モデル(LLM)を内蔵した自律エージェントは、適応的でマルチエージェントなコラボレーションを実現することで、デジタル環境と物理環境の両方を変革している。
エージェント層,ブロックチェーンデータ層,および規制アプリケーション層で構成される,規制エージェントコラボレーションのためのブロックチェーン対応層アーキテクチャを提案する。
当社のアプローチは,大規模エージェントエコシステムにおける信頼性,レジリエント,スケーラブルな規制機構の体系的基盤を確立する。
論文 参考訳(メタデータ) (2025-09-11T07:46:00Z) - Co-Investigator AI: The Rise of Agentic AI for Smarter, Trustworthy AML Compliance Narratives [2.7295959384567356]
Co-Investigator AIは、SAR(Suspicious Activity Reports)の作成に最適化されたエージェントフレームワークであり、従来の方法よりも大幅に高速で精度が高い。
我々は、SARの草案作成を効率化し、物語を規制上の期待と一致させ、コンプライアンスチームが高次の分析作業に集中できるようにする能力を示します。
論文 参考訳(メタデータ) (2025-09-10T08:16:04Z) - Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - Governable AI: Provable Safety Under Extreme Threat Models [31.36879992618843]
我々は、従来の内部制約から外部に強制された構造コンプライアンスに移行するGAI(Governable AI)フレームワークを提案する。
GAIフレームワークは、シンプルで信頼性が高く、完全に決定論的で、強力で、柔軟性があり、汎用的なルール執行モジュール(REM)、ガバナンスルール、AIによる妥協やサブバージョンに対するエンドツーエンドの保護を提供する、統制可能なセキュアなスーパープラットフォーム(GSSP)で構成されている。
論文 参考訳(メタデータ) (2025-08-28T04:22:59Z) - AI-Governed Agent Architecture for Web-Trustworthy Tokenization of Alternative Assets [3.0801485631077457]
代替アセットトークン化は、非伝統的な金融商品がWeb上で表現され、取引されるように変化している。
本稿では、インテリジェントエージェントをブロックチェーンに統合し、代替資産のWeb信頼に値するトークン化を実現するAI統治エージェントアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-06-30T11:28:51Z) - FinRobot: Generative Business Process AI Agents for Enterprise Resource Planning in Finance [6.494553545846438]
我々は、ERPシステムのための最初のAIネイティブフレームワークを提示し、生成ビジネスプロセスAIエージェントの新しいアーキテクチャを導入する。
提案システムは、生成AIとビジネスプロセスモデリングとマルチエージェントオーケストレーションを統合し、エンドツーエンドの自動化を可能にする。
GBPAは処理時間の最大40%削減、エラー率94%削減、規制コンプライアンスの改善を実現している。
論文 参考訳(メタデータ) (2025-06-02T08:22:28Z) - Conformal Calibration: Ensuring the Reliability of Black-Box AI in Wireless Systems [36.407171992845456]
この論文は、計算量的に軽量で高度な統計ツールを採用することによって、芸術の状態を超越した一般的なフレームワークであるコンフォーマルキャリブレーションをレビューする。
コンフォーマルキャリブレーションをAIモデルライフサイクルに織り込むことで、ネットワークオペレータは、ブラックボックスAIモデルの信頼性を、無線システムの信頼性の高い実現技術として確立することができる。
論文 参考訳(メタデータ) (2025-04-12T19:05:00Z) - Reclaiming "Open AI" -- AI Model Serving Can Be Open Access, Yet Monetizable and Loyal [39.63122342758896]
AIの急速な台頭は、オープンウェイトディストリビューションと不透明なAPIベースのアプローチの間で機能する分割モデルとなっている。
このポジションペーパーでは、AIモデルサービスのためのオープンアクセス、マネタイザブル、ロヤル(OML)パラダイムを導入し、厳格に定式化し、推進する。
論文 参考訳(メタデータ) (2024-11-01T18:46:03Z) - Meta-Sealing: A Revolutionizing Integrity Assurance Protocol for Transparent, Tamper-Proof, and Trustworthy AI System [0.0]
この研究は、AIシステムの整合性検証を根本的に変更する暗号フレームワークであるMeta-Sealingを紹介する。
このフレームワークは、高度な暗号と分散検証を組み合わせることで、数学的厳密さと計算効率の両方を達成する、暗黙の保証を提供する。
論文 参考訳(メタデータ) (2024-10-31T15:31:22Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。