論文の概要: An Agentic LLM Framework for Adverse Media Screening in AML Compliance
- arxiv url: http://arxiv.org/abs/2602.23373v1
- Date: Mon, 29 Dec 2025 19:35:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:07.936658
- Title: An Agentic LLM Framework for Adverse Media Screening in AML Compliance
- Title(参考訳): AML準拠における副次的メディアスクリーニングのためのエージェントLLMフレームワーク
- Authors: Pavel Chernakov, Sasan Jafarnejad, Raphaël Frank,
- Abstract要約: 本稿では,Large Language Models (LLM) とRetrieval-Augmented Generation (RAG) を併用したエージェントシステムを提案する。
LLM エージェントが Web を検索し,関連文書を検索し,各主題の副次メディア指標(AMI) スコアを算出する,多段階的手法を実装した。
- 参考スコア(独自算出の注目度): 0.745554610293091
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adverse media screening is a critical component of anti-money laundering (AML) and know-your-customer (KYC) compliance processes in financial institutions. Traditional approaches rely on keyword-based searches that generate high false-positive rates or require extensive manual review. We present an agentic system that leverages Large Language Models (LLMs) with Retrieval-Augmented Generation (RAG) to automate adverse media screening. Our system implements a multi-step approach where an LLM agent searches the web, retrieves and processes relevant documents, and computes an Adverse Media Index (AMI) score for each subject. We evaluate our approach using multiple LLM backends on a dataset comprising Politically Exposed Persons (PEPs), persons from regulatory watchlists, and sanctioned persons from OpenSanctions and clean names from academic sources, demonstrating the system's ability to distinguish between high-risk and low-risk individuals.
- Abstract(参考訳): 逆メディアスクリーニングは、金融機関における反マネーロンダリング(AML)およびノウ・ユー・カストマー(KYC)コンプライアンスプロセスの重要な構成要素である。
従来のアプローチはキーワードベースの検索に依存しており、高い偽陽性率を生成するか、広範囲な手作業によるレビューを必要とする。
本稿では,Large Language Models (LLM) とRetrieval-Augmented Generation (RAG) を併用したエージェントシステムを提案する。
LLMエージェントがWebを検索し、関連する文書を検索し、処理するマルチステップアプローチを実装し、各被験者の副次メディア指標(AMI)スコアを算出する。
政治的に排除された人物(PEP)、規制監視リスト、OpenSanctionsの認可を受けた人物、学術資料からのクリーンネームからなるデータセットに基づいて、複数のLCMバックエンドを用いてアプローチを評価し、リスクの高い人物とリスクの低い人物を区別するシステムの能力を実証した。
関連論文リスト
- Toward Expert Investment Teams:A Multi-Agent LLM System with Fine-Grained Trading Tasks [6.55184070677326]
投資分析を細かなタスクに分解するマルチエージェント取引フレームワークを提案する。
実験結果から,細粒度タスクの分解はリスク調整されたリターンを著しく改善することが示された。
我々は,ストックインデックスと各システムの出力のばらつきとの相関を低くして,優れた性能を実現する。
論文 参考訳(メタデータ) (2026-02-26T18:37:36Z) - Query-Document Dense Vectors for LLM Relevance Judgment Bias Analysis [4.719505127252616]
大規模言語モデル (LLM) は、情報検索 (IR) 評価収集のための関連評価器として使われている。
我々は、LLMが平均的にどれだけ良いかを単に理解するのではなく、関係を判断する際に体系的な誤りを犯すかどうかを理解することを目的としている。
クエリドキュメント(Q-D)ペアを結合意味空間に埋め込むクラスタリングベースのフレームワークを導入する。
論文 参考訳(メタデータ) (2026-01-05T03:02:33Z) - FinAgentBench: A Benchmark Dataset for Agentic Retrieval in Financial Question Answering [57.18367828883773]
FinAgentBenchは、ファイナンスにおける多段階推論によるエージェント検索を評価するためのベンチマークである。
このベンチマークは、S&P-500上場企業に関する26Kのエキスパートアノテート例から成っている。
我々は,最先端モデルの集合を評価し,対象の微調整がエージェント検索性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2025-08-07T22:15:22Z) - MASCA: LLM based-Multi Agents System for Credit Assessment [0.3277163122167434]
実世界の意思決定プロセスのミラー化による信用評価向上を目的とした,LLM駆動型マルチエージェントシステムMASCAを紹介する。
また,階層型マルチエージェントシステムにおけるシグナリングゲーム理論の視点を示し,その構造と相互作用に関する理論的洞察を提供する。
論文 参考訳(メタデータ) (2025-07-30T15:19:38Z) - An agentic system with reinforcement-learned subsystem improvements for parsing form-like documents [0.0]
本稿では,Large Language Model (LLM)エージェントと強化学習ドライバエージェントを利用して,一貫性のある自己改善抽出を自動化するエージェントAIシステムを提案する。
我々の研究は、モノリシックなLCMベースの抽出の限界を強調し、タスク固有のプロンプトを備えたモジュール化されたマルチエージェントフレームワークを導入しました。
この自己修正適応システムは、人間の介入なしに正確な情報抽出を自動化することを目的として、多様な文書、ファイル形式、レイアウト、LLMを処理する。
論文 参考訳(メタデータ) (2025-05-16T09:46:10Z) - MALIBU Benchmark: Multi-Agent LLM Implicit Bias Uncovered [2.8692611791027893]
我々は,マルチエージェントシステムが社会的バイアスやステレオタイプを暗黙的に補強する程度を評価するために開発された新しいベンチマークであるMALIBUを提案する。
本研究は, LLM生成出力の偏差を定量化し, 偏差緩和が真の中立性よりも限界化されたペルソナを優先することを明らかにする。
論文 参考訳(メタデータ) (2025-04-10T19:16:40Z) - How do Large Language Models Understand Relevance? A Mechanistic Interpretability Perspective [64.00022624183781]
大規模言語モデル(LLM)は、関連性を評価し、情報検索(IR)タスクをサポートする。
メカニスティック・インタプリタビリティのレンズを用いて,異なるLLMモジュールが関係判断にどのように寄与するかを検討する。
論文 参考訳(メタデータ) (2025-04-10T16:14:55Z) - Latent Factor Models Meets Instructions: Goal-conditioned Latent Factor Discovery without Task Supervision [50.45597801390757]
Instruct-LFはゴール指向の潜在因子発見システムである。
命令フォロー機能と統計モデルを統合して、ノイズの多いデータセットを処理する。
論文 参考訳(メタデータ) (2025-02-21T02:03:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。