論文の概要: Role-Conditioned Refusals: Evaluating Access Control Reasoning in Large Language Models
- arxiv url: http://arxiv.org/abs/2510.07642v1
- Date: Thu, 09 Oct 2025 00:28:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.789301
- Title: Role-Conditioned Refusals: Evaluating Access Control Reasoning in Large Language Models
- Title(参考訳): 役割決定型拒絶:大規模言語モデルにおけるアクセス制御推論の評価
- Authors: Đorđe Klisura, Joseph Khoury, Ashish Kundu, Ram Krishnan, Anthony Rios,
- Abstract要約: 本研究は, LLMのアクセス制御ポリシーに準拠する能力に着目し, 承認された場合に応答し, 拒否した場合に応答することに着目し, 役割条件の拒絶について検討する。
この振る舞いを評価するために、SpiderとBIRDのテキスト・ツー・ショット・データセットを拡張する新しいデータセットを作成しました。
- 参考スコア(独自算出の注目度): 9.010745644432221
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Access control is a cornerstone of secure computing, yet large language models often blur role boundaries by producing unrestricted responses. We study role-conditioned refusals, focusing on the LLM's ability to adhere to access control policies by answering when authorized and refusing when not. To evaluate this behavior, we created a novel dataset that extends the Spider and BIRD text-to-SQL datasets, both of which have been modified with realistic PostgreSQL role-based policies at the table and column levels. We compare three designs: (i) zero or few-shot prompting, (ii) a two-step generator-verifier pipeline that checks SQL against policy, and (iii) LoRA fine-tuned models that learn permission awareness directly. Across multiple model families, explicit verification (the two-step framework) improves refusal precision and lowers false permits. At the same time, fine-tuning achieves a stronger balance between safety and utility (i.e., when considering execution accuracy). Longer and more complex policies consistently reduce the reliability of all systems. We release RBAC-augmented datasets and code.
- Abstract(参考訳): アクセス制御はセキュアなコンピューティングの基盤であるが、大きな言語モデルは制限のない応答を生成することで役割の境界を曖昧にすることが多い。
本研究は, LLMのアクセス制御ポリシーに準拠する能力に着目し, 承認された場合に応答し, 拒否した場合に応答することに着目し, 役割条件の拒絶について検討する。
この振る舞いを評価するために、我々は、テーブルと列レベルのPostgreSQLロールベースの現実的なポリシーで修正されたSpiderとBIRDテキスト-SQLデータセットを拡張した、新しいデータセットを作成しました。
3つのデザインを比較します。
(i)0または数発のプロンプト
(ii)ポリシーに対してSQLをチェックする2段階のジェネレータ検証パイプライン、および
3LoRAは、許可の認識を直接学習する微調整モデルである。
複数のモデルファミリにまたがって、明示的な検証(二段階のフレームワーク)は拒絶精度を改善し、偽の許可を下げる。
同時に、微調整は安全性と実用性(実行精度を考慮した場合)のバランスを強くする。
より長く複雑なポリシーは、全てのシステムの信頼性を一貫して低下させる。
RBACで強化されたデータセットとコードをリリースします。
関連論文リスト
- ARBITER: AI-Driven Filtering for Role-Based Access Control [0.2519906683279152]
我々の実装では、階層化された入出力検証、ロール認識検索、世代後ファクトチェックが実装されている。
合成データセットを用いて389のクエリに対するアプローチを評価する。
その結果,RAGシステムへの実践的RBAC展開は,動的エンタープライズ環境に必要な成熟度レベルに近づいていることが示唆された。
論文 参考訳(メタデータ) (2025-12-23T17:25:51Z) - Text-to-SQL as Dual-State Reasoning: Integrating Adaptive Context and Progressive Generation [54.53145282349042]
DSR-sourced, textbfDual-textbfS textbfReasoning frameworkを導入する。
ポストトレーニングやインコンテキストの例がなければ、DSR-sourcedは競合性能を達成し、スパイダー2.0-Snowで35.28%、BIRD開発で68.32%に達する。
論文 参考訳(メタデータ) (2025-11-26T13:52:50Z) - Towards Harnessing the Power of LLMs for ABAC Policy Mining [0.0468771281852187]
本稿では,大規模言語モデル(LLM)によるABAC(Attribute-based Access Control)ポリシーマイニングの実施に関する実証的研究を行う。
Google Gemini (Flash と Pro) と OpenAI ChatGPT を政策マイニングエンジンとして評価した。
論文 参考訳(メタデータ) (2025-11-22T15:49:36Z) - MARAG-R1: Beyond Single Retriever via Reinforcement-Learned Multi-Tool Agentic Retrieval [50.30107119622642]
大規模言語モデル(LLM)は推論と生成において優れているが、本質的には静的事前学習データによって制限されている。
Retrieval-Augmented Generation (RAG)は、LLMを外部知識に基盤を置くことでこの問題に対処する。
MarAG-R1は、LLMが複数の検索機構を動的に調整できる強化学習型マルチツールRAGフレームワークである。
論文 参考訳(メタデータ) (2025-10-31T15:51:39Z) - OpenTable-R1: A Reinforcement Learning Augmented Tool Agent for Open-Domain Table Question Answering [0.0]
オープンドメインのテーブルの問合せは伝統的に2段階のパイプラインに依存している。
本稿では,大規模言語モデルにマルチターンツールコールを組み込むエンドツーエンドのエージェントフレームワークを提案する。
この統一されたアプローチにより、モデルはクエリを共同で検索、推論、実行することが可能になり、劇的な精度の向上が得られる。
論文 参考訳(メタデータ) (2025-07-02T13:54:54Z) - SHARE: An SLM-based Hierarchical Action CorREction Assistant for Text-to-SQL [18.493226915913638]
テキスト・トゥ・コレクションのためのSLMに基づく階層的行動補正アシスタントSHAREを提案する。
SHAREはシーケンシャルパイプラインで3つの特殊小言語モデル(SLM)を編成する。
実験により,SHAREは様々なLSMに対して堅牢性を示しながら,自己補正能力を効果的に向上することが示された。
論文 参考訳(メタデータ) (2025-05-31T04:51:12Z) - ReFoRCE: A Text-to-SQL Agent with Self-Refinement, Consensus Enforcement, and Column Exploration [32.83579488224367]
ReFoRCEは、スパイダー2.0のリーダーボードのトップのテキスト・トゥ・信頼のエージェントです。
ReFoRCEは35.83のスパイダー2.0-Snowと36.56のスコアで最先端の結果を得た。
論文 参考訳(メタデータ) (2025-02-02T05:25:03Z) - RSL-SQL: Robust Schema Linking in Text-to-SQL Generation [51.00761167842468]
本稿では、双方向スキーマリンク、コンテキスト情報拡張、バイナリ選択戦略、マルチターン自己補正を組み合わせたRSLと呼ばれる新しいフレームワークを提案する。
ベンチマークの結果,オープンソースのソリューション間でのSOTA実行精度は67.2%,BIRDは87.9%,GPT-4オクルージョンは87.9%であった。
提案手法は,DeepSeekを同一のプロンプトで適用した場合,GPT-4ベースのテキスト・ツー・シークシステムよりも優れている。
論文 参考訳(メタデータ) (2024-10-31T16:22:26Z) - IBAC Mathematics and Mechanics: The Case for 'Integer Based Access Control' of Data Security in the Age of AI and AI Automation [0.0]
データアクセス制御の現在の方法、特にAIとAIの自動化は、適切なデータアクセスを保証するというユニークな課題に直面している。
RBAC(Role-Based Access Control)とABAC(Atribute-Based Access Control)の限界に対処する集約型アクセス制御(ABAC)を導入する。
IBACの数学的基盤は、リレーショナルおよび文書認証への適用を可能にする。
論文 参考訳(メタデータ) (2024-10-24T06:19:57Z) - Offline RL with No OOD Actions: In-Sample Learning via Implicit Value
Regularization [90.9780151608281]
インサンプルラーニング(IQL)は、データサンプルのみを使用して、定量的回帰によってポリシーを改善する。
サンプル内学習のパラダイムがtextitImplicit Value Regularization (IVR) フレームワークの下で生まれることを確認する。
Sparse $Q$-learning (EQL)とExponential $Q$-learning (EQL)の2つの実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-28T08:30:01Z) - Offline RL With Realistic Datasets: Heteroskedasticity and Support
Constraints [82.43359506154117]
非均一な変数を持つデータから、典型的なオフライン強化学習手法が学習できないことを示す。
提案手法は,Atariゲーム,ナビゲーション,ピクセルベースの操作において,多種多様なオフラインRL問題にまたがる性能向上を図っている。
論文 参考訳(メタデータ) (2022-11-02T11:36:06Z) - Mutual Information Regularized Offline Reinforcement Learning [76.05299071490913]
我々は、データセットにおける状態と行動間の相互情報の観点から、オフラインRLにアプローチする新しいMISAフレームワークを提案する。
この下位境界の最適化は、オフラインデータセット上での一段階改善されたポリシーの可能性の最大化と等価であることを示す。
MISAの3つの異なる変種を導入し、より厳密な相互情報によりオフラインのRL性能が向上することを示した。
論文 参考訳(メタデータ) (2022-10-14T03:22:43Z) - Continuous Doubly Constrained Batch Reinforcement Learning [93.23842221189658]
環境とのオンラインインタラクションではなく、固定されたオフラインデータセットのみを使用して効果的なポリシーを学ぶバッチRLのアルゴリズムを提案する。
バッチRLにおける制限されたデータは、トレーニングデータに不十分に表現された状態/動作の値推定に固有の不確実性をもたらす。
この分散を減らすための政策制約と、過度に楽観的な見積もりを妨げる価値制約という2つの簡単な罰則によってこの問題を軽減することを提案する。
論文 参考訳(メタデータ) (2021-02-18T08:54:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。