論文の概要: Policy-Aware Generative AI for Safe, Auditable Data Access Governance
- arxiv url: http://arxiv.org/abs/2510.23474v1
- Date: Mon, 27 Oct 2025 16:10:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.607912
- Title: Policy-Aware Generative AI for Safe, Auditable Data Access Governance
- Title(参考訳): 安全で監査可能なデータアクセスガバナンスのためのポリシー対応生成AI
- Authors: Shames Al Mandalawi, Muzakkiruddin Ahmed Mohammed, Hendrika Maclean, Mert Can Cakmak, John R. Talburt,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を用いて,原データではなく,記述されたポリシーやメタデータに対して自然言語要求を解釈するポリシー対応コントローラを提案する。
Google Gemini2.0 Flashで実装されたこのシステムは、6段階の推論フレームワークを実行する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Enterprises need access decisions that satisfy least privilege, comply with regulations, and remain auditable. We present a policy aware controller that uses a large language model (LLM) to interpret natural language requests against written policies and metadata, not raw data. The system, implemented with Google Gemini~2.0 Flash, executes a six-stage reasoning framework (context interpretation, user validation, data classification, business purpose test, compliance mapping, and risk synthesis) with early hard policy gates and deny by default. It returns APPROVE, DENY, CONDITIONAL together with cited controls and a machine readable rationale. We evaluate on fourteen canonical cases across seven scenario families using a privacy preserving benchmark. Results show Exact Decision Match improving from 10/14 to 13/14 (92.9\%) after applying policy gates, DENY recall rising to 1.00, False Approval Rate on must-deny families dropping to 0, and Functional Appropriateness and Compliance Adherence at 14/14. Expert ratings of rationale quality are high, and median latency is under one minute. These findings indicate that policy constrained LLM reasoning, combined with explicit gates and audit trails, can translate human readable policies into safe, compliant, and traceable machine decisions.
- Abstract(参考訳): 企業は最低限の特権を満足し、規制を遵守し、監査可能なアクセス決定を必要とする。
本稿では,大規模言語モデル(LLM)を用いて,原データではなく,記述されたポリシーやメタデータに対して自然言語要求を解釈するポリシー対応コントローラを提案する。
Google Gemini~2.0 Flashで実装されたこのシステムは、6段階の推論フレームワーク(コンテキスト解釈、ユーザバリデーション、データ分類、ビジネス目的のテスト、コンプライアンスマッピング、リスク合成)を初期ハードポリシーゲートで実行し、デフォルトで拒否する。
APPROVE, DENY, CONDITIONAL を参照制御と機械可読論理と共に返す。
プライバシ保護ベンチマークを用いて,7つのシナリオファミリーにまたがる14の標準事例について検討した。
結果,政策ゲート適用後10/14から13/14 (92.9\%) まで,DECリコールは1.00に,False Approval Rateは0に,False Approval Rateは14/14に,Functional Appropriateness and Compliance Adherenceは14/14に改善した。
合理的な品質のエキスパート評価は高く、中央値のレイテンシは1分未満である。
これらの結果は、ポリシー制約付きLPM推論と明示的なゲートと監査パスを組み合わせることで、人間の可読性ポリシーを安全で準拠し、追跡可能なマシン決定に変換することができることを示唆している。
関連論文リスト
- Scaling Policy Compliance Assessment in Language Models with Policy Reasoning Traces [12.671657542087624]
ポリシー推論トレース(英: Policy Reasoning Traces、PRT)は、LLMのポリシーコンプライアンスアセスメント能力を改善するための推論ブリッジとして機能する、特殊化された推論チェーンの一形態である。
実験により, PRTを推論時間とトレーニング時間の両方のシナリオに使用することにより, オープンウェイトモデルと商用モデルの性能が著しく向上することが示された。
論文 参考訳(メタデータ) (2025-09-27T13:10:21Z) - Context Reasoner: Incentivizing Reasoning Capability for Contextualized Privacy and Safety Compliance via Reinforcement Learning [53.92712851223158]
安全とプライバシの問題を文脈整合性(CI)理論に従って文脈整合性問題に定式化する。
CIフレームワークの下では、当社のモデルを3つの重要な規制基準 – EU AI ActとHIPAA – に整合させています。
我々は、安全・プライバシー基準の遵守を高めつつ、文脈推論能力を高めるためにルールベースの報酬を持つ強化学習(RL)を採用している。
論文 参考訳(メタデータ) (2025-05-20T16:40:09Z) - Few-shot Policy (de)composition in Conversational Question Answering [54.259440408606515]
本稿では,大規模言語モデル(LLM)を用いて数ショット設定でポリシーコンプライアンスを検出するニューラルシンボリックフレームワークを提案する。
提案手法は,回答すべきサブクエストを抽出し,文脈情報から真理値を割り当て,与えられたポリシーから論理文の集合を明示的に生成することで,政策コンプライアンスに関する会話に対して健全な理由を示す。
本手法は,PCDおよび会話機械読解ベンチマークであるShARCに適用し,タスク固有の微調整を伴わずに競合性能を示す。
論文 参考訳(メタデータ) (2025-01-20T08:40:15Z) - PolicyLR: A Logic Representation For Privacy Policies [34.73520882451813]
我々は、プライバシポリシーの包括的な機械可読表現を提供する新しいパラダイムであるPolicyLRを提案する。
PolicyLRは、プライバシーポリシーを原子式の評価を用いて機械可読形式に変換する。
ポリシコンプライアンス,一貫性検出,プライバシ比較ショッピングという3つのプライバシタスクにおいて,ポリシLRを実証する。
論文 参考訳(メタデータ) (2024-08-27T07:27:16Z) - Conformal Off-Policy Evaluation in Markov Decision Processes [53.786439742572995]
強化学習は、データから効率的な制御ポリシーを特定し評価することを目的としている。
この学習タスクのほとんどの方法は、Off-Policy Evaluation (OPE)と呼ばれ、正確さと確実性を保証するものではない。
本稿では,目標方針の真報を含む区間を所定の確信度で出力するコンフォーマル予測に基づく新しいOPE手法を提案する。
論文 参考訳(メタデータ) (2023-04-05T16:45:11Z) - Hallucinated Adversarial Control for Conservative Offline Policy
Evaluation [64.94009515033984]
本研究では,環境相互作用のオフラインデータセットが与えられた場合,政策のパフォーマンスを低く抑えることを目的とした,保守的非政治評価(COPE)の課題について検討する。
本稿では,遷移力学の不確実性を考慮した学習モデルに基づくHAMBOを紹介する。
結果のCOPE推定値が妥当な下界であることを証明し、正則性条件下では、真に期待された戻り値への収束を示す。
論文 参考訳(メタデータ) (2023-03-02T08:57:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。