論文の概要: DAVE: A Policy-Enforcing LLM Spokesperson for Secure Multi-Document Data Sharing
- arxiv url: http://arxiv.org/abs/2602.17413v1
- Date: Thu, 19 Feb 2026 14:43:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.10139
- Title: DAVE: A Policy-Enforcing LLM Spokesperson for Secure Multi-Document Data Sharing
- Title(参考訳): DAVE: セキュアなマルチドキュメントデータ共有のためのポリシー強化LDMスポークスパーソン
- Authors: René Brinkhege, Prahlad Menon,
- Abstract要約: DAVEは利用ポリシーを強制するスポークスパーソンで、データプロバイダに代わってプライベートドキュメントに関する質問に答える。
我々は、この設定でポリシー違反の情報開示を形式化し、利用制御と情報フローのセキュリティに基づく。
当社のコントリビューションは主にアーキテクチャです – 完全な実行パイプラインの実装や試験的な評価は行いません。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In current inter-organizational data spaces, usage policies are enforced mainly at the asset level: a whole document or dataset is either shared or withheld. When only parts of a document are sensitive, providers who want to avoid leaking protected information typically must manually redact documents before sharing them, which is costly, coarse-grained, and hard to maintain as policies or partners change. We present DAVE, a usage policy-enforcing LLM spokesperson that answers questions over private documents on behalf of a data provider. Instead of releasing documents, the provider exposes a natural language interface whose responses are constrained by machine-readable usage policies. We formalize policy-violating information disclosure in this setting, drawing on usage control and information flow security, and introduce virtual redaction: suppressing sensitive information at query time without modifying source documents. We describe an architecture for integrating such a spokesperson with Eclipse Dataspace Components and ODRL-style policies, and outline an initial provider-side integration prototype in which QA requests are routed through a spokesperson service instead of triggering raw document transfer. Our contribution is primarily architectural: we do not yet implement or empirically evaluate the full enforcement pipeline. We therefore outline an evaluation methodology to assess security, utility, and performance trade-offs under benign and adversarial querying as a basis for future empirical work on systematically governed LLM access to multi-party data spaces.
- Abstract(参考訳): 現在の組織間データ空間では、利用ポリシーは主に資産レベルで実施されます。
ドキュメントの一部だけが機密性がある場合、保護された情報を漏らすのを避けたいプロバイダは通常、共有する前に文書を手作業で書き直さなければならない。
DAVEは,データ提供者に代わって個人文書に関する質問に回答する,利用ポリシーを強制するLLMスポークスパーソンである。
ドキュメントを公開する代わりに、プロバイダは、マシン可読利用ポリシーによって応答が制限される自然言語インターフェースを公開する。
我々は、この設定でポリシー違反の情報開示を形式化し、使用制御と情報フローのセキュリティを図り、仮想的なリアクションを導入し、ソース文書を変更することなく、クエリ時に機密情報を抑圧する。
このようなスポークスマンをEclipse Dataspace ComponentsやODRLスタイルのポリシーと統合するためのアーキテクチャを説明し、QA要求が生のドキュメント転送をトリガーするのではなく、スポークスマンサービスを介してルーティングされる最初のプロバイダ側統合プロトタイプを概説する。
当社のコントリビューションは主にアーキテクチャです – 完全な実行パイプラインの実装や試験的な評価は行いません。
そこで本稿では,マルチパーティデータ空間へのLLMアクセスを体系的に管理する上での今後の実証研究の基盤として,良質かつ敵対的なクエリによるセキュリティ,ユーティリティ,パフォーマンスのトレードオフを評価するための評価手法を概説する。
関連論文リスト
- Smart Privacy Policy Assistant: An LLM-Powered System for Transparent and Actionable Privacy Notices [3.914632811815449]
ほとんどのユーザーは、個人情報の収集、共有、収益化の方法を規定しているにもかかわらず、閲覧や理解なしにオンラインプライバシポリシーに同意する。
本稿では,LLMを利用したスマートプライバシポリシアシスタントを提案する。プライバシポリシを自動的に取り込み,キー句を抽出,分類し,人間の解釈可能なリスクレベルを割り当て,明確で簡潔な説明を生成する。
本稿では, ポリシーの取り込み, 条項分類, リスクスコアリング, 説明生成を含むエンドツーエンドパイプラインについて述べるとともに, 条項レベルの正確性, ポリシーレベルのリスク合意, ユーザ理解に基づく評価フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-09T23:42:59Z) - Doc-PP: Document Policy Preservation Benchmark for Large Vision-Language Models [13.70855540464427]
我々は、厳密な非開示ポリシーの下で、異質な視覚的およびテキスト的要素の推論を必要とする実世界のレポートから構築された新しいベンチマークDoc-PPを紹介する。
モデルでは、複雑な合成によって答えが推測されなければならない場合や、モダリティにまたがって集約された場合、機密情報を頻繁にリークする。
政策検証から推論を分離する構造推論フレームワークであるDVAを提案する。
論文 参考訳(メタデータ) (2026-01-07T13:45:39Z) - PolicyBot - Reliable Question Answering over Policy Documents [0.0]
この研究は、ポリシー文書上のユーザクエリに応答するように設計された、検索拡張世代(RAG)システムであるPolicyBotを提示する。
このシステムは、ドメイン固有のセマンティックチャンキング、多言語で密接な埋め込み、複数段階の検索と再ランク付け、ソース・アウェア・ジェネレーションを組み合わせて、元のドキュメントに基盤を置く応答を提供する。
論文 参考訳(メタデータ) (2025-11-17T15:26:10Z) - Analyzing and Internalizing Complex Policy Documents for LLM Agents [53.14898416858099]
大規模言語モデル(LLM)ベースのエージェントシステムは、多様なビジネスルールをコードするコンテキスト内ポリシー文書に依存している。
これは、パフォーマンスを保ちながら、ポリシー文書をモデルプリエントに組み込む内部化手法の開発を動機付けます。
CC-Genは4つのレベルにまたがる制御可能な複雑度を持つエージェントベンチマークジェネレータである。
論文 参考訳(メタデータ) (2025-10-13T16:30:07Z) - Unified Multimodal Interleaved Document Representation for Retrieval [57.65409208879344]
複数のモダリティでインターリーブされた文書を階層的に埋め込む手法を提案する。
セグメント化されたパスの表現を1つのドキュメント表現にマージする。
我々は,本手法が関連するベースラインを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-10-03T17:49:09Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
機密情報を含む匿名化は、幅広いアプリケーションにとって不可欠である。
既存の技術は、大規模言語モデルの再識別能力の新たな課題に直面している。
本稿では,プライバシ評価器,ユーティリティ評価器,最適化コンポーネントの3つの重要なコンポーネントで構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Privacy-Aware Document Visual Question Answering [44.82362488593259]
この研究はDocVQAで使用されるマルチモーダルLLMモデルの現状におけるプライバシー問題を強調している。
本稿では,請求書と関連する質問と回答を含む大規模DocVQAデータセットを提案する。
プライベートでないモデルは記憶に残る傾向があり、プライベートな情報が露出する可能性があることを実証する。
論文 参考訳(メタデータ) (2023-12-15T06:30:55Z) - PolicyQA: A Reading Comprehension Dataset for Privacy Policies [77.79102359580702]
既存のWebサイトプライバシポリシ115のコーパスから算出した,25,017の理解スタイルの例を含むデータセットであるPolicyQAを提案する。
既存の2つのニューラルQAモデルを評価し、厳密な分析を行い、ポリシQAが提供する利点と課題を明らかにする。
論文 参考訳(メタデータ) (2020-10-06T09:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。