論文の概要: NLP-based Regulatory Compliance -- Using GPT 4.0 to Decode Regulatory Documents
- arxiv url: http://arxiv.org/abs/2412.20602v1
- Date: Sun, 29 Dec 2024 22:14:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:01:14.556655
- Title: NLP-based Regulatory Compliance -- Using GPT 4.0 to Decode Regulatory Documents
- Title(参考訳): NLPベースの規制コンプライアンス -- GPT 4.0を使って規制文書をデコードする
- Authors: Bimal Kumar, Dmitri Roussinov,
- Abstract要約: 本研究は,GPT-4.0の規制要件内での競合を識別する能力を評価する。
精度、リコール、F1スコアなどの測定値を用いて、実験はGPT-4.0が不整合を検出する効果を示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Large Language Models (LLMs) such as GPT-4.0 have shown significant promise in addressing the semantic complexities of regulatory documents, particularly in detecting inconsistencies and contradictions. This study evaluates GPT-4.0's ability to identify conflicts within regulatory requirements by analyzing a curated corpus with artificially injected ambiguities and contradictions, designed in collaboration with architects and compliance engineers. Using metrics such as precision, recall, and F1 score, the experiment demonstrates GPT-4.0's effectiveness in detecting inconsistencies, with findings validated by human experts. The results highlight the potential of LLMs to enhance regulatory compliance processes, though further testing with larger datasets and domain-specific fine-tuning is needed to maximize accuracy and practical applicability. Future work will explore automated conflict resolution and real-world implementation through pilot projects with industry partners.
- Abstract(参考訳): GPT-4.0のような大規模言語モデル(LLM)は、特に矛盾や矛盾を検知する上で、規制文書の意味的な複雑さに対処する上で大きな可能性を示している。
本研究は,GPT-4.0が,設計者やコンプライアンスエンジニアと共同で設計した,人工的に注入されたあいまいさと矛盾のあるコーパスを解析することにより,規制要件内の競合を識別する能力を評価するものである。
精度、リコール、F1スコアなどの測定値を用いて、実験はGPT-4.0が不整合の検出に有効であることを示し、人間の専門家によって検証された。
この結果は、規制コンプライアンスプロセスを強化するLLMの可能性を強調しつつ、より大きなデータセットでさらなるテストを行い、精度と実用性を最大化するためには、ドメイン固有の微調整が必要である。
今後は、業界パートナとのパイロットプロジェクトを通じて、自動コンフリクト解決と実世界の実装について検討する予定である。
関連論文リスト
- Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - GroUSE: A Benchmark to Evaluate Evaluators in Grounded Question Answering [0.0]
Retrieval-Augmented Generation (RAG) は、Large Language Models (LLM) をプライベートおよび最新の知識ベースと共に使用する共通のパラダイムとして登場した。
本稿では,RAG システムによって生成される接地回答を評価する際に LLM-as-a-Judge を用いる際の課題に対処する。
論文 参考訳(メタデータ) (2024-09-10T15:39:32Z) - Granting GPT-4 License and Opportunity: Enhancing Accuracy and Confidence Estimation for Few-Shot Event Detection [6.718542027371254]
大規模言語モデル(LLM)は、"銀"データの生成に使用を提案するために、数ショットの学習コンテキストで十分な可能性を示している。
信頼度推定は、GPT-4のようなモデルの弱点を文書化したものである。
本研究は,車両としてのBETTERライセンスにおけるイベント検出のための少数ショット学習によるGPT-4による効果的な信頼度推定手法について検討する。
論文 参考訳(メタデータ) (2024-08-01T21:08:07Z) - Enhancing Legal Compliance and Regulation Analysis with Large Language Models [0.0]
本研究では,法律規定を正確に分類し,コンプライアンスチェックを自動化するために,LLM(Large Language Models)の適用について検討する。
以上より, LLMsは, 法的コンプライアンスと規制分析の効率化, 特に手作業量削減, 適切な時間的金融制約下での精度向上に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2024-04-26T16:40:49Z) - Rethinking Legal Compliance Automation: Opportunities with Large Language Models [2.9088208525097365]
我々は、(テキスト)法的アーティファクトの試験は、まず文よりも広い文脈で行うべきであると論じる。
これらの制約に対処するために,コンプライアンス分析手法を提案する。
論文 参考訳(メタデータ) (2024-04-22T17:10:27Z) - DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT
Models [92.6951708781736]
本稿では,GPT-4とGPT-3.5に着目した大規模言語モデルの総合的信頼性評価を提案する。
GPTモデルは、有害で偏りのある出力を生成し、個人情報を漏らすために、容易に誤解され得る。
我々の研究は、GPTモデルの総合的な信頼性評価を示し、信頼性のギャップに光を当てている。
論文 参考訳(メタデータ) (2023-06-20T17:24:23Z) - Is GPT-4 a Good Data Analyst? [67.35956981748699]
我々は、GPT-4を、広範囲のドメインのデータベースでエンドツーエンドのデータ分析を行うためのデータ分析であると考えている。
我々は,複数の専門家データアナリストとGPT-4のパフォーマンスを体系的に比較するために,タスク固有の評価指標を設計する。
実験の結果, GPT-4はヒトに匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-05-24T11:26:59Z) - A Symbolic Framework for Evaluating Mathematical Reasoning and Generalisation with Transformers [17.075558137261986]
我々は変圧器の分布外数学的推論問題への一般化性を評価する。
GPT-4, GPT-3.5, 細調整BERTモデルのキャノンの比較を行った。
驚いたことに, 細調整モデルの平均分布性能がGPT-3.5を超え, ライバルのGPT-4を上回っていることが判明した。
論文 参考訳(メタデータ) (2023-05-21T20:40:37Z) - GPT-4 Technical Report [116.90398195245983]
GPT-4は大規模なマルチモーダルモデルであり、画像やテキストの入力を受け取り、テキスト出力を生成することができる。
試験受験者の上位10%のスコアで模擬試験に合格するなど、さまざまな専門的、学術的なベンチマークで人間レベルのパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-03-15T17:15:04Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z) - Prompting GPT-3 To Be Reliable [117.23966502293796]
この研究は信頼性を一般化可能性、公平性、校正性、事実性という4つの側面に分解する。
GPT-3はこれらすべての面において,より小型の教師付きモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-17T14:52:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。