論文の概要: Neuro-Symbolic Compliance: Integrating LLMs and SMT Solvers for Automated Financial Legal Analysis
- arxiv url: http://arxiv.org/abs/2601.06181v1
- Date: Wed, 07 Jan 2026 17:05:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.650897
- Title: Neuro-Symbolic Compliance: Integrating LLMs and SMT Solvers for Automated Financial Legal Analysis
- Title(参考訳): 自律的財務法解析のためのLLMとSMTを統合したニューロシンボリックコンプライアンス
- Authors: Yung-Shen Hsia, Fang Yu, Jie-Hong Roland Jiang,
- Abstract要約: 本稿では,Large Language Models (LLM) と Satisfiability Modulo Theories (SMT) を統合したNeuro-Symbolic Compliance Frameworkを提案する。
このシステムは、SMTコード生成において86.2%の正確性を獲得し、推論効率を100倍以上に改善し、一貫して違反を修正している。
- 参考スコア(独自算出の注目度): 10.541121116852944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Financial regulations are increasingly complex, hindering automated compliance-especially the maintenance of logical consistency with minimal human oversight. We introduce a Neuro-Symbolic Compliance Framework that integrates Large Language Models (LLMs) with Satisfiability Modulo Theories (SMT) solvers to enable formal verifiability and optimization-based compliance correction. The LLM interprets statutes and enforcement cases to generate SMT constraints, while the solver enforces consistency and computes the minimal factual modification required to restore legality when penalties arise. Unlike transparency-oriented methods, our approach emphasizes logic-driven optimization, delivering verifiable, legally consistent reasoning rather than post-hoc explanation. Evaluated on 87 enforcement cases from Taiwan's Financial Supervisory Commission (FSC), the system attains 86.2% correctness in SMT code generation, improves reasoning efficiency by over 100x, and consistently corrects violations-establishing a preliminary foundation for optimization-based compliance applications.
- Abstract(参考訳): 金融規制はますます複雑になり、自動化されたコンプライアンス、特に人間の監督を最小限に抑えた論理的一貫性の維持を妨げる。
本稿では,Large Language Models (LLM) と Satisfiability Modulo Theories (SMT) を統合して,形式的妥当性と最適化に基づくコンプライアンス補正を実現するニューロ・シンボリック・コンプライアンス・フレームワークを提案する。
LLMは、法律と執行のケースを解釈して、SMTの制約を生成する一方、解決者は一貫性を強制し、罰則が生じたときに合法性を取り戻すために必要な最小限の事実修正を計算する。
透明性指向の手法とは異なり、我々のアプローチは論理駆動の最適化を強調し、ポストホックな説明ではなく、検証可能な法的に一貫した推論を提供する。
台湾金融監督委員会(FSC)による87件の執行事例を評価し、SMTコード生成において86.2%の正当性を達成し、推論効率を100倍以上に改善し、最適化ベースのコンプライアンス・アプリケーションのための予備的基盤を確立するための違反を一貫して修正する。
関連論文リスト
- Towards Comprehensive Stage-wise Benchmarking of Large Language Models in Fact-Checking [64.97768177044355]
大規模言語モデル(LLM)は、現実のファクトチェックシステムにますます多くデプロイされている。
FactArenaは、完全に自動化されたアリーナスタイルの評価フレームワークである。
本研究では,静的クレーム検証精度とエンドツーエンドのファクトチェック能力の相違点を明らかにした。
論文 参考訳(メタデータ) (2026-01-06T02:51:56Z) - Judging by the Rules: Compliance-Aligned Framework for Modern Slavery Statement Monitoring [24.13989765643719]
現代の奴隷制度は世界中で何百万人もの人々に影響を与えており、現代の奴隷制度法のような規制の枠組みでは、企業が詳細な開示を公表する必要がある。
これらのステートメントは曖昧で矛盾することが多く、手作業によるレビューの時間とスケールが難しくなる。
専門家の監視を維持しつつルールレベルのコンプライアンス検証にAIを活用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T03:41:44Z) - Type-Compliant Adaptation Cascades: Adapting Programmatic LM Workflows to Data [12.136710894967088]
本稿では,ワークフロー適応を学習型確率型プログラムとして再放送するフレームワークであるType-Compliant Adaptation Cascadesを紹介する。
経験的に、TACは最先端のプロンプト最適化ベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2025-08-25T17:36:21Z) - AUTOLAW: Enhancing Legal Compliance in Large Language Models via Case Law Generation and Jury-Inspired Deliberation [5.732271982985626]
AutoLawは、ドメイン固有の大規模言語モデル(LLM)のための新しい違反検出フレームワークである。
LLMの法的コンプライアンスを強化するために、敵対的なデータ生成と陪審に触発された審議プロセスを組み合わせる。
本研究は, 法的不一致を適応的に調査し, 信頼性の高い文脈対応の判断を下すフレームワークの能力を強調した。
論文 参考訳(メタデータ) (2025-05-20T07:09:13Z) - Engineering the Law-Machine Learning Translation Problem: Developing Legally Aligned Models [0.0]
本稿では,機械学習モデル開発において,法的および機械学習技術分析を統合した5段階の学際フレームワークを提案する。
このフレームワークは、法的に整合した方法でMLモデルを設計し、法的に妥当なハイパフォーマンスモデルを特定することを容易にする。
論文 参考訳(メタデータ) (2025-04-23T13:41:17Z) - Supervised Optimism Correction: Be Confident When LLMs Are Sure [91.7459076316849]
教師付き微調整とオフライン強化学習の間には,新たな理論的関係が確立されている。
広く使われているビームサーチ法は、許容できない過度な最適化に悩まされていることを示す。
本稿では,トークンレベル$Q$-value推定のための簡易かつ効果的な補助的損失を導入したSupervised Optimism Correctionを提案する。
論文 参考訳(メタデータ) (2025-04-10T07:50:03Z) - Attribute Controlled Fine-tuning for Large Language Models: A Case Study on Detoxification [76.14641982122696]
本稿では,属性制御付き大規模言語モデル(LLM)の制約学習スキーマを提案する。
提案手法は, ベンチマーク上での競合性能と毒性検出タスクを達成しながら, 不適切な応答を少ないLCMに導出することを示す。
論文 参考訳(メタデータ) (2024-10-07T23:38:58Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - Exterior Penalty Policy Optimization with Penalty Metric Network under Constraints [52.37099916582462]
制約強化学習(CRL:Constrained Reinforcement Learning)では、エージェントが制約を満たしながら最適なポリシーを学習するために環境を探索する。
我々は,刑罰科目ネットワーク(PMN)が生み出す適応的な罰則を持つ,理論的に保証された刑罰関数法(Exterior Penalty Policy Optimization (EPO))を提案する。
PMNは様々な制約違反に適切に対応し、効率的な制約満足度と安全な探索を可能にする。
論文 参考訳(メタデータ) (2024-07-22T10:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。