論文の概要: AuditCopilot: Leveraging LLMs for Fraud Detection in Double-Entry Bookkeeping
- arxiv url: http://arxiv.org/abs/2512.02726v1
- Date: Tue, 02 Dec 2025 13:00:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.879683
- Title: AuditCopilot: Leveraging LLMs for Fraud Detection in Double-Entry Bookkeeping
- Title(参考訳): AuditCopilot: ダブルエントリー簿記におけるフラッド検出のためのLCMの活用
- Authors: Md Abdul Kadir, Sai Suresh Macharla Vasu, Sidharth S. Nair, Daniel Sonntag,
- Abstract要約: 大型言語モデル (LLM) は二重エントリーの簿記において異常検知器として機能する。
合成および実世界の匿名化台帳上でのSoTA LLMのベンチマークを行い,JETと機械学習のベースラインを比較した。
結果は、ヒト監査員が金融の整合性を高めるために基礎モデルと協力する、textbfAI強化監査の可能性を強調した。
- 参考スコア(独自算出の注目度): 3.589046578266679
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Auditors rely on Journal Entry Tests (JETs) to detect anomalies in tax-related ledger records, but rule-based methods generate overwhelming false positives and struggle with subtle irregularities. We investigate whether large language models (LLMs) can serve as anomaly detectors in double-entry bookkeeping. Benchmarking SoTA LLMs such as LLaMA and Gemma on both synthetic and real-world anonymized ledgers, we compare them against JETs and machine learning baselines. Our results show that LLMs consistently outperform traditional rule-based JETs and classical ML baselines, while also providing natural-language explanations that enhance interpretability. These results highlight the potential of \textbf{AI-augmented auditing}, where human auditors collaborate with foundation models to strengthen financial integrity.
- Abstract(参考訳): 監査人は、税に関する台帳記録の異常を検出するためにJournal Entry Tests (JET) を頼っているが、ルールベースの手法は圧倒的な偽陽性を発生させ、微妙な不規則さに苦慮する。
大規模言語モデル (LLM) が二重エントリー簿記における異常検出に役立てられるかどうかを考察する。
合成および実世界の匿名化台帳上で,LLaMA や Gemma などの SoTA LLM をベンチマークし,それらを JET や機械学習ベースラインと比較する。
この結果から,LLMは従来のルールベースJETや古典的MLベースラインを一貫して上回り,解釈可能性を高める自然言語の説明も提供することがわかった。
これらの結果は,人間監査員が基礎モデルと協力し,財政的整合性を高める「textbf{AI-augmented auditing」の可能性を浮き彫りにしている。
関連論文リスト
- Interpreting LLMs as Credit Risk Classifiers: Do Their Feature Explanations Align with Classical ML? [4.0057196015831495]
大言語モデル(LLM)は、ゼロショットプロンプトによる分類タスクのための古典的な機械学習モデルの柔軟な代替品として、ますます研究されている。
本研究では,ゼロショットLPMに基づく分類器と,現実のローンデフォルト予測タスクにおいて,最先端の勾配ブースティングモデルであるLightGBMとを体系的に比較する。
我々は,それらの予測性能を評価し,SHAPを用いて特徴属性を分析し,LLM生成自己説明の信頼性を評価する。
論文 参考訳(メタデータ) (2025-10-29T17:05:00Z) - LLMs as verification oracles for Solidity [1.3887048755037537]
本稿では,この役割において,最先端の推論LLMである GPT-5 を初めて体系的に評価する。
我々は,大規模な検証タスクのデータセット上でその性能をベンチマークし,その出力を確立された形式的検証ツールと比較し,実世界の監査シナリオにおける実効性を評価する。
我々の研究は、AIの収束における新たなフロンティアと、セキュアなスマートコントラクト開発と監査のための形式的手法を示唆している。
論文 参考訳(メタデータ) (2025-09-23T15:32:13Z) - Verifying the Verifiers: Unveiling Pitfalls and Potentials in Fact Verifiers [59.168391398830515]
我々は,14のファクトチェックベンチマークのサンプルを用いて,12の事前学習LDMと1つの特殊ファクト検証器を評価した。
データセットにおけるアノテーションエラーとあいまいさに対処することの重要性を強調します。
最上位のパフォーマンスを実現するために、前作でしばしば見落とされがちな、数ショットのインコンテキストの例を持つフロンティアLSM。
論文 参考訳(メタデータ) (2025-06-16T10:32:10Z) - MoRE-LLM: Mixture of Rule Experts Guided by a Large Language Model [54.14155564592936]
大規模言語モデル(MoRE-LLM)によるルールエキスパートの混合を提案する。
MoRE-LLMは、トレーニング中の局所的なルールベースのサロゲートの発見と、それらの分類タスクの利用を操縦する。
LLMはルールを修正・コンテキスト化することで、ルールのドメイン知識の整合性を高める役割を担います。
論文 参考訳(メタデータ) (2025-03-26T11:09:21Z) - Preference Leakage: A Contamination Problem in LLM-as-a-judge [69.96778498636071]
審査員としてのLLM(Large Language Models)とLLMに基づくデータ合成は、2つの基本的なLLM駆動型データアノテーション法として登場した。
本研究では, 合成データ生成器とLCMに基づく評価器の関連性に起因するLCM-as-a-judgeの汚染問題である選好リークを明らかにする。
論文 参考訳(メタデータ) (2025-02-03T17:13:03Z) - Evaluating the Correctness of Inference Patterns Used by LLMs for Judgment [53.17596274334017]
我々は,LLMの詳細な推論パターンの正確さを,その正しい出力の裏側で評価した。
実験により、言語生成結果が正しそうであっても、LLMが法的な判断に用いた推論パターンのかなりの部分は、誤解を招く論理や無関係な論理を表す可能性があることが示された。
論文 参考訳(メタデータ) (2024-10-06T08:33:39Z) - Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs [49.57641083688934]
本稿では,Large Language Models (LLM) 埋め込みを用いた財務データにおける異常検出の新しい手法を提案する。
実験により,LLMが異常検出に有用な情報をもたらし,モデルがベースラインを上回っていることが確認された。
論文 参考訳(メタデータ) (2024-06-05T20:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。