論文の概要: Policy-Governed RAG - Research Design Study
- arxiv url: http://arxiv.org/abs/2510.19877v1
- Date: Wed, 22 Oct 2025 10:33:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.433938
- Title: Policy-Governed RAG - Research Design Study
- Title(参考訳): 政策統治RAG : 研究設計研究
- Authors: Jean-Marie Le Ray,
- Abstract要約: RAGアーキテクチャは、規制されたゲート領域における監査可能な生成のために規定される。
この設計は既存のRAG/ガードレールを補完し、ポリシーチェックを監査可能、再生可能、レシートバックで補完する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A policy-governed RAG architecture is specified for audit-ready generation in regulated workflows, organized as a triptych: (I) Contracts/Control (SHRDLU-like), which governs output adherence to legal and internal policies; (II) Manifests/Trails (Memex-like), which cryptographically anchors all cited source evidence to ensure verifiable provenance; and (III) Receipts/Verification (Xanadu-like), which provides the final, portable proof of compliance for auditors (portable COSE/JOSE) (see Section 4 and Appendix A). Rather than explaining model internals, outputs are gated ex-ante and bound to cryptographically verifiable evidence for each material answer. Unvalidated targets are stated (>=20% relative reduction in confident errors; p95 latency <= 900 ms; <= 2.2x serve cost) together with a pre-registered (optional) pilot using NO-GO gates. The design complements existing RAG/guardrails by making policy checks auditable, replayable, and receipt-backed. Target domains include back-office compliance in pharma, medical devices, finance, legal, and the public sector where error costs may exceed thousands of euros and audit trails are mandatory under regulations such as the EU AI Act. Future evaluations may pre-commit to publishing negative results when any example NO-GO gate is not met.
- Abstract(参考訳): 規則付きRAGアーキテクチャは、トリティッチとして組織された規制ワークフローの監査可能な生成のために指定されている: (I) 契約/契約 (SHRDLU-like) 法的および内部的なポリシーに対する出力の遵守を管理する; (II) マニフェスト/トラス (Memex-like) 暗号的に全ての引用元証拠をアンロックして証明された証明を確実にする; (III) 承認/検証 (Xanadu-like) 監査人に対する最終かつポータブルなコンプライアンスの証明を提供する (portable COSE/JOSE) 。
モデル内部を説明するのではなく、アウトプットはex-anteと呼ばれ、各材料答えに対する暗号的に検証された証拠に拘束される。
無効なターゲット(>=20%の信頼性エラー、p95のレイテンシ <= 900 ms; <= 2.2倍のサービスコスト)とNO-GOゲートを使用した事前登録(オプション)パイロットが記載されている。
この設計は既存のRAG/ガードレールを補完し、ポリシーチェックを監査可能、再生可能、レシートバックで補完する。
ターゲットドメインには、薬品、医療機器、金融、法律、公共セクターにおけるバックオフィスコンプライアンスが含まれており、エラーコストは数千ユーロを超え、監査証跡はEU AI Actなどの規則で義務付けられている。
将来の評価は、任意のNO-GOゲートが満たされていない場合、負の結果の公開に事前コミットする可能性がある。
関連論文リスト
- Audit the Whisper: Detecting Steganographic Collusion in Multi-Agent LLMs [0.0]
Audit the Whisperは、理論、ベンチマーク設計、検出、検証にまたがるカンファレンスグレードの研究成果物である。
i) パラフレーズ, レート制限, 役割置換などの介入が, ペアリングしたKullback-Leibler診断によって定量的なペナルティの操作を課すことを示すチャネル容量分析を行った。
我々は、匿名化された再生スクリプト、匿名化されたマニフェスト、ドキュメントをリリースし、外部監査官がすべての図を再現し、二重盲検要件を満たし、最小限の努力でフレームワークを拡張します。
論文 参考訳(メタデータ) (2025-10-05T17:51:52Z) - Position: The Hidden Costs and Measurement Gaps of Reinforcement Learning with Verifiable Rewards [110.47944672736723]
我々は、RLVR税、評価落とし穴、データ汚染という3つの力によって利回りが過大評価されることが多いと論じている。
本稿では, 精度, グラウンド, キャリブレーションを両立させる税意識訓練・評価プロトコルを提案する。
論文 参考訳(メタデータ) (2025-09-26T05:06:25Z) - Towards Automated Regulatory Compliance Verification in Financial Auditing with Large Language Models [2.502173772742615]
我々は,様々なモデル構成における規制コンプライアンスの領域において,一般公開されたLarge Language Models (LLM) の効率性について検討する。
オープンソースのLlama-270億モデルは,非コンプライアンスや真の負の発生を検出する上で,優れた性能を示す。
GPT-4のようなプロプライエタリなモデルは、特に非英語の文脈において、様々なシナリオで最高の性能を発揮する。
論文 参考訳(メタデータ) (2025-07-22T14:39:54Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [71.7892165868749]
LLM(Commercial Large Language Model) APIは基本的な信頼の問題を生み出します。
ユーザーは特定のモデルに課金するが、プロバイダが忠実に提供できることを保証することはない。
我々は,このモデル置換問題を定式化し,現実的な逆条件下での検出方法を評価する。
我々は,信頼された実行環境(TEE)を実用的で堅牢なソリューションとして使用し,評価する。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - Certified Safe: A Schematic for Approval Regulation of Frontier AI [0.0]
承認規制スキームは、企業が法的に市場を拡大できない場合や、場合によっては、規制当局の明確な承認なしに製品を開発する場合である。
本報告では、トレーニング前に精査を開始し、デプロイ後の監視を継続する、最大規模のAIプロジェクトのみに対する承認規制スキーマを提案する。
論文 参考訳(メタデータ) (2024-08-12T15:01:03Z) - Trustless Audits without Revealing Data or Models [49.23322187919369]
モデルプロバイダが(アーキテクチャではなく)モデルウェイトとデータシークレットを維持しながら、他のパーティがモデルとデータプロパティを信頼性のない監査を行うことが可能であることを示す。
私たちはZkAuditと呼ばれるプロトコルを設計し、モデルプロバイダがデータセットとモデルの重みの暗号的コミットメントを公開します。
論文 参考訳(メタデータ) (2024-04-06T04:43:06Z) - The Decisive Power of Indecision: Low-Variance Risk-Limiting Audits and Election Contestation via Marginal Mark Recording [51.82772358241505]
リスクリミット監査(リスクリミット監査、RLA)は、大規模な選挙の結果を検証する技術である。
我々は、効率を改善し、統計力の進歩を提供する監査の新たなファミリーを定めている。
新しい監査は、複数の可能なマーク解釈を宣言できるように、キャストボイトレコードの標準概念を再考することで実現される。
論文 参考訳(メタデータ) (2024-02-09T16:23:54Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Design Challenges for GDPR RegTech [0.3867363075280544]
方法論のアカウンタビリティの原則は、組織が規則の遵守を証明できることを要求する。
コンプライアンスソフトウェアソリューションに関する調査では、コンプライアンスを示す能力において、大きなギャップが示されている。
RegTechは金融コンプライアンスに大きな成功を収め、リスクの低減、コスト削減、金融規制の強化を実現している。
論文 参考訳(メタデータ) (2020-05-21T18:55:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。