論文の概要: LegalWiz: A Multi-Agent Generation Framework for Contradiction Detection in Legal Documents
- arxiv url: http://arxiv.org/abs/2510.03418v2
- Date: Fri, 10 Oct 2025 19:46:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 20:23:38.913954
- Title: LegalWiz: A Multi-Agent Generation Framework for Contradiction Detection in Legal Documents
- Title(参考訳): LegalWiz: 法的文書におけるコントラクション検出のためのマルチエージェント生成フレームワーク
- Authors: Ananya Mantravadi, Shivali Dalmia, Olga Pospelova, Abhishek Mukherji, Nand Dave, Anudha Mittal,
- Abstract要約: 本稿では,法的領域に対するマルチエージェントの矛盾対応ベンチマークフレームワークを提案する。
合成法スタイルの文書を生成し、6種類の構造的矛盾を注入し、自己と対の矛盾をモデル化する。
このベンチマークは、法的RAGパイプラインにおける矛盾認識評価のための最初の構造化されたリソースの1つを提供する。
- 参考スコア(独自算出の注目度): 0.10260880679794955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) integrates large language models (LLMs) with external sources, but unresolved contradictions in retrieved evidence often lead to hallucinations and legally unsound outputs. Benchmarks currently used for contradiction detection lack domain realism, cover only limited conflict types, and rarely extend beyond single-sentence pairs, making them unsuitable for legal applications. Controlled generation of documents with embedded contradictions is therefore essential: it enables systematic stress-testing of models, ensures coverage of diverse conflict categories, and provides a reliable basis for evaluating contradiction detection and resolution. We present a multi-agent contradiction-aware benchmark framework for the legal domain that generates synthetic legal-style documents, injects six structured contradiction types, and models both self- and pairwise inconsistencies. Automated contradiction mining is combined with human-in-the-loop validation to guarantee plausibility and fidelity. This benchmark offers one of the first structured resources for contradiction-aware evaluation in legal RAG pipelines, supporting more consistent, interpretable, and trustworthy systems.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は、大規模な言語モデル(LLM)を外部ソースと統合するが、検索された証拠における未解決の矛盾はしばしば幻覚と法的に無音の出力に繋がる。
矛盾検出に現在使用されているベンチマークには、ドメインリアリズムが欠如しており、限定的な競合タイプのみをカバーしており、単一文ペアを超えて拡張されることはめったにないため、法的な応用には適さない。
モデルの体系的なストレステストを可能にし、多様な競合カテゴリのカバレッジを保証し、矛盾検出と解決を評価するための信頼性の高い基盤を提供する。
提案手法は, 合成法的形式文書を生成し, 6種類の構造的矛盾型を注入し, 自己および相互の不整合をモデル化する, 法領域のマルチエージェント・コンフリクト・アウェア・ベンチマーク・フレームワークを提案する。
自動矛盾マイニングは、信頼性と忠実性を保証するために、人間のループ検証と組み合わせられる。
このベンチマークは、法的RAGパイプラインにおける矛盾認識評価のための最初の構造化されたリソースの1つを提供し、より一貫性があり、解釈可能で、信頼できるシステムをサポートする。
関連論文リスト
- ReliabilityRAG: Effective and Provably Robust Defense for RAG-based Web-Search [69.60882125603133]
本稿では,検索した文書の信頼性情報を明確に活用する,敵対的堅牢性のためのフレームワークであるReliabilityRAGを提案する。
我々の研究は、RAGの回収されたコーパスの腐敗に対するより効果的で確実に堅牢な防御に向けた重要な一歩である。
論文 参考訳(メタデータ) (2025-09-27T22:36:42Z) - Co-Investigator AI: The Rise of Agentic AI for Smarter, Trustworthy AML Compliance Narratives [2.7295959384567356]
Co-Investigator AIは、SAR(Suspicious Activity Reports)の作成に最適化されたエージェントフレームワークであり、従来の方法よりも大幅に高速で精度が高い。
我々は、SARの草案作成を効率化し、物語を規制上の期待と一致させ、コンプライアンスチームが高次の分析作業に集中できるようにする能力を示します。
論文 参考訳(メタデータ) (2025-09-10T08:16:04Z) - AI-Supported Platform for System Monitoring and Decision-Making in Nuclear Waste Management with Large Language Models [1.6795461001108096]
本稿では,大規模言語モデル(LLM)と文書検索機構を統合したマルチエージェント検索・拡張生成(RAG)システムを提案する。
このシステムは、規制決定が事実上基礎を保ち、進化する規制フレームワークに動的に適応することを保証する。
論文 参考訳(メタデータ) (2025-05-27T20:29:53Z) - AlignRAG: Leveraging Critique Learning for Evidence-Sensitive Retrieval-Augmented Reasoning [61.28113271728859]
RAGは知識ベースで大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
標準的なRAGパイプラインは、モデル推論が取得した証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
本研究では,RAGをRetrieval-Augmented Reasoningと解釈し,中心的だが未探索な問題であるtextitReasoning Misalignmentを同定する。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - Bridging the Gap in XAI-Why Reliable Metrics Matter for Explainability and Compliance [2.3020018305241337]
この論文は、標準化された信頼性のあるメトリクスが欠如していることから、説明可能なAI(XAI)の評価における重要なギャップを強調している。
現在の評価手法は、しばしば断片化され、主観的、偏見的であり、複雑なモデルの評価を操作し複雑にする傾向がある。
我々は、堅牢で文脈に敏感な評価指標を開発するための広範な研究を提唱する。
論文 参考訳(メタデータ) (2025-02-07T06:54:48Z) - SparseCL: Sparse Contrastive Learning for Contradiction Retrieval [87.02936971689817]
コントラディション検索(Contradiction Search)とは、クエリの内容に明示的に異を唱える文書を識別し、抽出することである。
類似性探索やクロスエンコーダモデルといった既存の手法には、大きな制限がある。
文間の微妙で矛盾したニュアンスを保存するために特別に訓練された文埋め込みを利用するSparseCLを導入する。
論文 参考訳(メタデータ) (2024-06-15T21:57:03Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - ADC: Adversarial attacks against object Detection that evade Context
consistency checks [55.8459119462263]
文脈整合性チェックさえも、適切に構築された敵の例に対して脆弱であることを示す。
このような防御を覆す実例を生成するための適応型フレームワークを提案する。
我々の結果は、コンテキストを堅牢にモデル化し、一貫性をチェックする方法はまだ未解決の問題であることを示している。
論文 参考訳(メタデータ) (2021-10-24T00:25:09Z) - Trustworthy Artificial Intelligence and Process Mining: Challenges and
Opportunities [0.8602553195689513]
プロセスマイニングは、AIコンプライアンスプロセスの実行に事実に基づく可視性を得るために有用なフレームワークを提供することができることを示す。
AI規制コンプライアンスプロセスの不確実性を分析し、修正し、監視する自動化アプローチを提供する。
論文 参考訳(メタデータ) (2021-10-06T12:50:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。