論文の概要: Towards Automated Regulatory Compliance Verification in Financial Auditing with Large Language Models
- arxiv url: http://arxiv.org/abs/2507.16642v1
- Date: Tue, 22 Jul 2025 14:39:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:14.160423
- Title: Towards Automated Regulatory Compliance Verification in Financial Auditing with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた財務監査におけるコンプライアンス自動検証に向けて
- Authors: Armin Berger, Lars Hillebrand, David Leonhard, Tobias Deußer, Thiago Bell Felix de Oliveira, Tim Dilmaghani, Mohamed Khaled, Bernd Kliem, Rüdiger Loitz, Christian Bauckhage, Rafet Sifa,
- Abstract要約: 我々は,様々なモデル構成における規制コンプライアンスの領域において,一般公開されたLarge Language Models (LLM) の効率性について検討する。
オープンソースのLlama-270億モデルは,非コンプライアンスや真の負の発生を検出する上で,優れた性能を示す。
GPT-4のようなプロプライエタリなモデルは、特に非英語の文脈において、様々なシナリオで最高の性能を発揮する。
- 参考スコア(独自算出の注目度): 2.502173772742615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The auditing of financial documents, historically a labor-intensive process, stands on the precipice of transformation. AI-driven solutions have made inroads into streamlining this process by recommending pertinent text passages from financial reports to align with the legal requirements of accounting standards. However, a glaring limitation remains: these systems commonly fall short in verifying if the recommended excerpts indeed comply with the specific legal mandates. Hence, in this paper, we probe the efficiency of publicly available Large Language Models (LLMs) in the realm of regulatory compliance across different model configurations. We place particular emphasis on comparing cutting-edge open-source LLMs, such as Llama-2, with their proprietary counterparts like OpenAI's GPT models. This comparative analysis leverages two custom datasets provided by our partner PricewaterhouseCoopers (PwC) Germany. We find that the open-source Llama-2 70 billion model demonstrates outstanding performance in detecting non-compliance or true negative occurrences, beating all their proprietary counterparts. Nevertheless, proprietary models such as GPT-4 perform the best in a broad variety of scenarios, particularly in non-English contexts.
- Abstract(参考訳): 歴史的に労働集約的なプロセスである財務文書の監査は、変革の危機に立たされている。
AI駆動のソリューションはこのプロセスを合理化するために、会計基準の法的要件を満たすために財務報告からの関連するテキストパスを推奨している。
これらのシステムは通常、推奨された抜粋が実際に特定の法的規定に従うかどうかの検証に不足している。
そこで本稿では,様々なモデル構成における規制コンプライアンスの観点から,LLM(Large Language Models)の効率性について検討する。
我々は、Llama-2のような最先端のオープンソースLLMと、OpenAIのGPTモデルのようなプロプライエタリなモデルとの比較に特に重点を置いている。
この比較分析では、パートナーのPricewaterhouseCoopers(PwC)ドイツが提供する2つのカスタムデータセットを活用しています。
オープンソースのLlama-270億モデルは、非コンプライアンスや真のネガティブな発生を検知する優れた性能を示し、プロプライエタリなすべてのモデルを上回っている。
にもかかわらず、GPT-4のようなプロプライエタリなモデルは、特に非英語の文脈において、様々なシナリオで最高の性能を発揮する。
関連論文リスト
- Your AI, Not Your View: The Bias of LLMs in Investment Analysis [55.328782443604986]
大規模言語モデル(LLM)は、事前訓練されたパラメトリック知識とリアルタイム市場データとの相違により、しばしば知識の衝突に直面している。
本稿では, LLMに基づく投資分析において, 確認バイアスの定量的分析を行った。
われわれは、大口株に対する一貫した選好と、ほとんどのモデルにおけるコントラリアン戦略を観察する。
論文 参考訳(メタデータ) (2025-07-28T16:09:38Z) - Using Large Language Models for Legal Decision-Making in Austrian Value-Added Tax Law: An Experimental Study [0.0]
本稿では,オーストリアと欧州連合の付加価値税法(VAT)の枠組みにおいて,大規模言語モデル(LLM)の法的意思決定を支援する能力について実験的に評価する。
論文 参考訳(メタデータ) (2025-07-11T10:19:56Z) - Verifying the Verifiers: Unveiling Pitfalls and Potentials in Fact Verifiers [59.168391398830515]
我々は,14のファクトチェックベンチマークのサンプルを用いて,12の事前学習LDMと1つの特殊ファクト検証器を評価した。
データセットにおけるアノテーションエラーとあいまいさに対処することの重要性を強調します。
最上位のパフォーマンスを実現するために、前作でしばしば見落とされがちな、数ショットのインコンテキストの例を持つフロンティアLSM。
論文 参考訳(メタデータ) (2025-06-16T10:32:10Z) - Aplicação de Large Language Models na Análise e Síntese de Documentos Jurídicos: Uma Revisão de Literatura [0.0]
大規模言語モデル (LLMs) は、法的文書の分析と合成を最適化するためにますます使われている。
本研究の目的は,LLMに適用された技術の現状を法的文脈で把握するために,系統的な文献レビューを行うことである。
論文 参考訳(メタデータ) (2025-04-01T12:34:00Z) - Preference Leakage: A Contamination Problem in LLM-as-a-judge [69.96778498636071]
審査員としてのLLM(Large Language Models)とLLMに基づくデータ合成は、2つの基本的なLLM駆動型データアノテーション法として登場した。
本研究では, 合成データ生成器とLCMに基づく評価器の関連性に起因するLCM-as-a-judgeの汚染問題である選好リークを明らかにする。
論文 参考訳(メタデータ) (2025-02-03T17:13:03Z) - NLP-based Regulatory Compliance -- Using GPT 4.0 to Decode Regulatory Documents [0.0]
本研究は,GPT-4.0の規制要件内での競合を識別する能力を評価する。
精度、リコール、F1スコアなどの測定値を用いて、実験はGPT-4.0が不整合を検出する効果を示す。
論文 参考訳(メタデータ) (2024-12-29T22:14:59Z) - LLM2: Let Large Language Models Harness System 2 Reasoning [65.89293674479907]
大規模言語モデル(LLM)は、無数のタスクにまたがって印象的な機能を示してきたが、時には望ましくない出力が得られる。
本稿では LLM とプロセスベースの検証器を組み合わせた新しいフレームワーク LLM2 を紹介する。
LLMs2は妥当な候補を生成するのに責任を持ち、検証者は望ましい出力と望ましくない出力を区別するためにタイムリーなプロセスベースのフィードバックを提供する。
論文 参考訳(メタデータ) (2024-12-29T06:32:36Z) - InternLM-Law: An Open Source Chinese Legal Large Language Model [72.2589401309848]
InternLM-Lawは、中国法に関する様々な法的クエリに対処するための特殊なLLMである。
われわれは、中国法域に100万以上のクエリを含むデータセットを慎重に構築する。
InternLM-LawはLawBench上で最高の平均性能を達成し、20サブタスク中13サブタスクでGPT-4を含む最先端モデルを上回っている。
論文 参考訳(メタデータ) (2024-06-21T06:19:03Z) - Adapting Large Language Models for Document-Level Machine Translation [46.370862171452444]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクを大幅に進歩させた。
近年の研究では、中程度のLLMはタスク固有の微調整後、より大きなLLMよりも優れていることが示されている。
本研究では,特定の言語対に対する文書レベルの機械翻訳(DocMT)にLLMを適用することに焦点を当てた。
論文 参考訳(メタデータ) (2024-01-12T09:29:13Z) - Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model
Collaboration [52.57055162778548]
法的判断予測(LJP)は、法律AIにおいてますます重要な課題となっている。
先行は、同様の事実を持つ以前の訴訟であり、国家法制度におけるその後の事件の判断の基礎となっている。
近年のディープラーニングの進歩により、LJPタスクの解決に様々なテクニックが使えるようになった。
論文 参考訳(メタデータ) (2023-10-13T16:47:20Z) - Improving Zero-Shot Text Matching for Financial Auditing with Large
Language Models [2.842163527983814]
我々は、ドメイン固有に最適化されたトランスフォーマーベースのテキストマッチングソリューションと組み合わせて、最先端の大規模言語モデル(LLM)を活用する新しいレコメンデーションシステムZeroShotALIを提案する。
2段階のアプローチでは、まず、独自のBERTモデルを用いて、法的な要件ごとに最適な文書セクションを抽出し、次に、LLMを用いてこれらの選択をフィルタリングすることで、既存のアプローチよりも大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-11T12:55:09Z) - Real Time Reasoning in OWL2 for GDPR Compliance [0.0]
我々は、新たな欧州データ保護規制に準拠する組織を支援するために、知識表現と推論技術をどのように利用できるかを示す。
この作業は、SPECIALと呼ばれるヨーロッパのH2020プロジェクトで実施されている。
論文 参考訳(メタデータ) (2020-01-15T15:50:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。