論文の概要: Automating Financial Statement Audits with Large Language Models
- arxiv url: http://arxiv.org/abs/2506.17282v1
- Date: Sat, 14 Jun 2025 17:07:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.305659
- Title: Automating Financial Statement Audits with Large Language Models
- Title(参考訳): 大規模言語モデルによる財務文書監査の自動化
- Authors: Rushi Wang, Jiateng Liu, Weijie Zhao, Shenglan Li, Denghui Zhang,
- Abstract要約: ファイナンシャルステートメント監査を自動化するために,大規模言語モデル(LLM)を活用している。
本研究は、実世界の財務表と合成トランザクションデータを組み合わせた、キュレートされたデータセットを用いたベンチマークを提案する。
我々のテストでは、現在最先端のLLMが、過去のトランザクションデータを与えられたときの財務諸表の誤りを識別することに成功した。
- 参考スコア(独自算出の注目度): 8.568971444669868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Financial statement auditing is essential for stakeholders to understand a company's financial health, yet current manual processes are inefficient and error-prone. Even with extensive verification procedures, auditors frequently miss errors, leading to inaccurate financial statements that fail to meet stakeholder expectations for transparency and reliability. To this end, we harness large language models (LLMs) to automate financial statement auditing and rigorously assess their capabilities, providing insights on their performance boundaries in the scenario of automated auditing. Our work introduces a comprehensive benchmark using a curated dataset combining real-world financial tables with synthesized transaction data. In the benchmark, we developed a rigorous five-stage evaluation framework to assess LLMs' auditing capabilities. The benchmark also challenges models to map specific financial statement errors to corresponding violations of accounting standards, simulating real-world auditing scenarios through test cases. Our testing reveals that current state-of-the-art LLMs successfully identify financial statement errors when given historical transaction data. However, these models demonstrate significant limitations in explaining detected errors and citing relevant accounting standards. Furthermore, LLMs struggle to execute complete audits and make necessary financial statement revisions. These findings highlight a critical gap in LLMs' domain-specific accounting knowledge. Future research must focus on enhancing LLMs' understanding of auditing principles and procedures. Our benchmark and evaluation framework establish a foundation for developing more effective automated auditing tools that will substantially improve the accuracy and efficiency of real-world financial statement auditing.
- Abstract(参考訳): 財務報告の監査は、ステークホルダーが会社の財務状況を理解するのに不可欠だが、現在の手動のプロセスは非効率でエラーを起こしやすい。
広範囲にわたる検証手続きにもかかわらず、監査人はしばしば誤りを犯し、透明性と信頼性に対するステークホルダーの期待に届かなかった不正確な財務声明につながる。
この目的のために,我々は大規模言語モデル(LLM)を用いて財務諸表監査を自動化し,その能力を厳格に評価し,自動監査のシナリオにおけるパフォーマンス境界に関する洞察を提供する。
本研究は、実世界の財務表と合成トランザクションデータを組み合わせた、キュレートされたデータセットを用いた総合的なベンチマークを提案する。
ベンチマークでは,LSMの監査能力を評価するための厳密な5段階評価フレームワークを開発した。
ベンチマークはまた、特定の財務諸表のエラーを会計基準違反にマッピングし、テストケースを通じて実際の監査シナリオをシミュレートするモデルにも挑戦している。
我々のテストでは、現在最先端のLLMが、過去のトランザクションデータを与えられたときの財務諸表の誤りを識別することに成功した。
しかし、これらのモデルは検出されたエラーを説明し、関連する会計基準を引用する上で、重大な制限を示す。
さらに、LLMは完全な監査を行い、必要な財務諸表の改訂を行うのに苦労している。
これらの知見は、LLMsのドメイン固有の会計知識における重要なギャップを浮き彫りにした。
今後の研究は、監査の原則と手続きに対するLLMの理解を高めることに集中しなければならない。
本ベンチマークおよび評価フレームワークは,実世界の財務諸表監査の精度と効率を大幅に向上させる,より効果的な自動監査ツールの開発基盤を確立する。
関連論文リスト
- Towards Competent AI for Fundamental Analysis in Finance: A Benchmark Dataset and Evaluation [3.077814260904367]
ファイナンシャルステートメント分析に着目したベンチマークデータセットであるFinAR-Benchを提案する。
重要な情報を抽出し、財務指標を計算し、論理的推論を適用する。
本研究は, 基礎解析におけるLLMの現在の強度と限界を明確に把握するものである。
論文 参考訳(メタデータ) (2025-05-22T07:06:20Z) - FinDER: Financial Dataset for Question Answering and Evaluating Retrieval-Augmented Generation [63.55583665003167]
ファイナンスにおけるRetrieval-Augmented Generation(RAG)に適したエキスパート生成データセットであるFinDERを提案する。
FinDERは、ドメインの専門家による検索関連証拠の注釈付けに重点を置いており、5,703のクエリ・エビデンス・アンサー・トリプルを提供している。
大きなコーパスから関連する情報を取得するためにモデルに挑戦することで、FinDERはRAGシステムを評価するためのより現実的なベンチマークを提供する。
論文 参考訳(メタデータ) (2025-04-22T11:30:13Z) - FACT-AUDIT: An Adaptive Multi-Agent Framework for Dynamic Fact-Checking Evaluation of Large Language Models [79.41859481668618]
大規模言語モデル(LLM)はファクトチェック研究を大幅に進歩させた。
既存のファクトチェック評価手法は静的データセットと分類基準に依存している。
本稿では, LLMのファクトチェック機能を適応的かつ動的に評価するエージェント駆動型フレームワークであるFACT-AUDITを紹介する。
論文 参考訳(メタデータ) (2025-02-25T07:44:22Z) - FinanceQA: A Benchmark for Evaluating Financial Analysis Capabilities of Large Language Models [0.0]
FinanceQAは、LLMのパフォーマンスを実世界の投資業務を反映した複雑な数値分析タスクで評価するテストスイートである。
現在のLLMは、金融機関の厳密な精度要件を満たすことができず、モデルは現実的なタスクの約60%を欠いている。
その結果、このようなタスクをサポートするためには高品質なトレーニングデータが必要であることが示され、OpenAIの微調整APIを使って実験した。
論文 参考訳(メタデータ) (2025-01-30T00:06:55Z) - Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs [49.57641083688934]
本稿では,Large Language Models (LLM) 埋め込みを用いた財務データにおける異常検出の新しい手法を提案する。
実験により,LLMが異常検出に有用な情報をもたらし,モデルがベースラインを上回っていることが確認された。
論文 参考訳(メタデータ) (2024-06-05T20:19:09Z) - PIXIU: A Large Language Model, Instruction Data and Evaluation Benchmark
for Finance [63.51545277822702]
PIXIUは、命令データ付き微調整LLaMAに基づく最初の金融大規模言語モデル(LLM)を含む包括的なフレームワークである。
我々はLLaMAを細調整してFinMAを提案する。
我々は、FinMAと既存のLLMを詳細に分析し、重要な財政課題に対処する際の長所と短所を明らかにする。
論文 参考訳(メタデータ) (2023-06-08T14:20:29Z) - Federated Continual Learning to Detect Accounting Anomalies in Financial
Auditing [1.2205797997133396]
本稿では,分散クライアントから監査モデルを継続的に学習できるフェデレーション型継続的学習フレームワークを提案する。
組織活動の共通シナリオにおける会計異常を検知するフレームワークの能力を評価する。
論文 参考訳(メタデータ) (2022-10-26T21:33:08Z) - Multi-view Contrastive Self-Supervised Learning of Accounting Data
Representations for Downstream Audit Tasks [1.9659095632676094]
国際監査基準では、財務諸表の根底にある会計取引を直接評価する必要がある。
ディープラーニングにインスパイアされた監査技術は、大量のジャーナルエントリデータを監査する分野に現れている。
本研究では,監査タスク不変な会計データ表現の学習を目的とした,自己指導型自己学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-23T08:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。