論文の概要: CON-QA: Privacy-Preserving QA using cloud LLMs in Contract Domain
- arxiv url: http://arxiv.org/abs/2509.19925v1
- Date: Wed, 24 Sep 2025 09:29:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.755342
- Title: CON-QA: Privacy-Preserving QA using cloud LLMs in Contract Domain
- Title(参考訳): CON-QA: 契約ドメインにおけるクラウドLLMを使用したプライバシ保護QA
- Authors: Ajeet Kumar Singh, Rajsabi Surya, Anurag Tripathi, Santanu Choudhury, Sudhir Bisane,
- Abstract要約: CON-QAは企業契約に対するセキュアな質問応答のためのハイブリッドプライバシ保護フレームワークである。
i) セマンティッククエリ分解、(ii) 検出されたセンシティブなエンティティの匿名化、(iii) クラウドベースのLCMによる匿名化応答生成である。
CON-QAを厳格に評価するために,実世界のCUAD契約文書510件に生成した85k問合せ対のコーパスであるCUAD-QAを紹介する。
- 参考スコア(独自算出の注目度): 0.9957569102803299
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As enterprises increasingly integrate cloud-based large language models (LLMs) such as ChatGPT and Gemini into their legal document workflows, protecting sensitive contractual information - including Personally Identifiable Information (PII) and commercially sensitive clauses - has emerged as a critical challenge. In this work, we propose CON-QA, a hybrid privacy-preserving framework designed specifically for secure question answering over enterprise contracts, effectively combining local and cloud-hosted LLMs. The CON-QA framework operates through three stages: (i) semantic query decomposition and query-aware document chunk retrieval using a locally deployed LLM analysis, (ii) anonymization of detected sensitive entities via a structured one-to-many mapping scheme, ensuring semantic coherence while preventing cross-session entity inference attacks, and (iii) anonymized response generation by a cloud-based LLM, with accurate reconstruction of the original answer locally using a session-consistent many-to-one reverse mapping. To rigorously evaluate CON-QA, we introduce CUAD-QA, a corpus of 85k question-answer pairs generated over 510 real-world CUAD contract documents, encompassing simple, complex, and summarization-style queries. Empirical evaluations, complemented by detailed human assessments, confirm that CON-QA effectively maintains both privacy and utility, preserves answer quality, maintains fidelity to legal clause semantics, and significantly mitigates privacy risks, demonstrating its practical suitability for secure, enterprise-level contract documents.
- Abstract(参考訳): 企業がChatGPTやGeminiといったクラウドベースの大規模言語モデル(LLM)を法的ドキュメントワークフローに統合し、PII(Personally Identible Information)や商業的に機密性の高い条項を含む、機密性の高い契約情報を保護することが、重要な課題として浮上している。
本研究では,企業契約上のセキュアな質問応答を目的としたハイブリッドプライバシ保護フレームワークであるCon-QAを提案する。
CON-QAフレームワークは3つの段階を通して動作する。
(i)局所展開LLM解析を用いた意味的クエリ分解と問合せ対応文書チャンク検索
二 構成された一対一のマッピング方式による検出されたセンシティブなエンティティの匿名化、セマンティック・コヒーレンスを確保しつつ、クロスセッション・エンティティの推論攻撃を防止すること、及び
三 クラウドベースのLCMによる匿名応答生成で、セッション一貫性の多対一逆写像を用いて、元の回答を局所的に正確に再現する。
CON-QAを厳格に評価するために,510の現実のCUAD契約文書上に生成した85kの質問応答対のコーパスであるCUAD-QAを導入する。
詳細な人間の評価によって補完される実証的な評価では、CON-QAは、プライバシーとユーティリティの両方を効果的に維持し、回答の品質を維持し、法的条項のセマンティクスへの忠実さを維持し、プライバシーリスクを著しく軽減し、企業レベルの契約文書の実用的適合性を実証している。
関連論文リスト
- The Sum Leaks More Than Its Parts: Compositional Privacy Risks and Mitigations in Multi-Agent Collaboration [72.33801123508145]
大規模言語モデル(LLM)はマルチエージェントシステムに不可欠なものである。
プライバシーリスクは、暗記、直接推論、シングルターン評価を超えて現れる。
特に、相互作用によって構成される一見無害な反応は、敵が機密情報の回復を累積的に行うことができる。
論文 参考訳(メタデータ) (2025-09-16T16:57:25Z) - VulAgent: Hypothesis-Validation based Multi-Agent Vulnerability Detection [55.957275374847484]
VulAgentは仮説検証に基づくマルチエージェント脆弱性検出フレームワークである。
セマンティクスに敏感なマルチビュー検出パイプラインを実装しており、それぞれが特定の分析の観点から一致している。
平均して、VulAgentは全体的な精度を6.6%改善し、脆弱性のある固定されたコードペアの正確な識別率を最大450%向上させ、偽陽性率を約36%削減する。
論文 参考訳(メタデータ) (2025-09-15T02:25:38Z) - PAKTON: A Multi-Agent Framework for Question Answering in Long Legal Agreements [12.634151250093483]
我々は,プラグイン・アンド・プレイ機能を備えた,完全オープンソースでエンドツーエンドのマルチエージェント・フレームワークであるPAKTONを紹介した。
PAKTONは、協調エージェントと新しい検索拡張生成(RAG)コンポーネントによって、契約分析の複雑さを扱うように設計されている。
実験により、PAKTONは、予測精度、検索性能、説明可能性、完全性、根拠的正当性において、汎用モデルと事前訓練モデルの両方より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-31T15:38:21Z) - PRIV-QA: Privacy-Preserving Question Answering for Cloud Large Language Models [10.050972891318324]
本稿では,ユーザと大規模言語モデル間のインタラクションにおいて,プライバシとセンシティブな情報を保護するためのプライバシ保護パイプラインを提案する。
プライバシを開放した最初の質問応答データセットであるSensitiveQAを構築した。
提案手法は,クラウド上でのLCMの応答品質を同時に保ちながら,ユーザ情報の事前確保を目的としたマルチステージ戦略を用いている。
論文 参考訳(メタデータ) (2025-02-19T09:17:07Z) - Towards Copyright Protection for Knowledge Bases of Retrieval-augmented Language Models via Reasoning [58.57194301645823]
大規模言語モデル(LLM)は、現実のパーソナライズされたアプリケーションにますます統合されている。
RAGで使用される知識基盤の貴重かつしばしばプロプライエタリな性質は、敵による不正使用のリスクをもたらす。
これらの知識基盤を保護するための透かし技術として一般化できる既存の方法は、一般的に毒やバックドア攻撃を含む。
我々は、無害な」知識基盤の著作権保護の名称を提案する。
論文 参考訳(メタデータ) (2025-02-10T09:15:56Z) - Aligning Large Language Models for Faithful Integrity Against Opposing Argument [71.33552795870544]
大規模言語モデル(LLM)は複雑な推論タスクにおいて印象的な機能を示している。
原文が正しい場合でも、会話中に不誠実な議論によって容易に誤解される。
本稿では,信頼度と信頼度を両立させる新しい枠組みを提案する。
論文 参考訳(メタデータ) (2025-01-02T16:38:21Z) - Privacy-Preserving Customer Support: A Framework for Secure and Scalable Interactions [0.0]
本稿では,大規模言語モデル(LLM)をゼロショット学習モードで活用する新しいアプローチとして,プライバシー保護ゼロショット学習(PP-ZSL)フレームワークを提案する。
従来の機械学習手法とは異なり、PP-ZSLは、事前学習されたLLMを使用して直接応答を生成することで、機密データに対する局所的なトレーニングを不要にしている。
このフレームワークには、リアルタイムデータ匿名化による機密情報の修正やマスク、ドメイン固有のクエリ解決のための検索強化生成(RAG)、規制基準の遵守を保証するための堅牢な後処理が含まれている。
論文 参考訳(メタデータ) (2024-12-10T17:20:47Z) - Is the House Ready For Sleeptime? Generating and Evaluating Situational Queries for Embodied Question Answering [48.43453390717167]
本研究では,家庭環境における状況問合せ(S-EQA)による身体的質問回答の課題を提示し,解決する。
以前のEQAの作業とは異なり、状況的クエリでは、エージェントが複数のオブジェクト状態を正しく識別し、回答のために状態に関するコンセンサスに到達する必要がある。
本稿では, LLMの出力をラップして, 独自のコンセンサスクエリとそれに対応するコンセンサスオブジェクト情報を生成する新しいPrompt-Generate-Evaluateスキームを提案する。
論文 参考訳(メタデータ) (2024-05-08T00:45:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。