論文の概要: Towards Harnessing the Power of LLMs for ABAC Policy Mining
- arxiv url: http://arxiv.org/abs/2511.18098v1
- Date: Sat, 22 Nov 2025 15:49:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.627469
- Title: Towards Harnessing the Power of LLMs for ABAC Policy Mining
- Title(参考訳): ABAC政策マイニングにおけるLCMの力の調和に向けて
- Authors: More Aayush Babasaheb, Shamik Sural,
- Abstract要約: 本稿では,大規模言語モデル(LLM)によるABAC(Attribute-based Access Control)ポリシーマイニングの実施に関する実証的研究を行う。
Google Gemini (Flash と Pro) と OpenAI ChatGPT を政策マイニングエンジンとして評価した。
- 参考スコア(独自算出の注目度): 0.0468771281852187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an empirical investigation into the capabilities of Large Language Models (LLMs) to perform automated Attribute-based Access Control (ABAC) policy mining. While ABAC provides fine-grained, context-aware access management, the increasing number and complexity of access policies can make their formulation and evaluation rather challenging. To address the task of synthesizing concise yet accurate policies, we evaluate the performance of some of the state-of-the-art LLMs, specifically Google Gemini (Flash and Pro) and OpenAI ChatGPT, as potential policy mining engines. An experimental framework was developed in Python to generate randomized access data parameterized by varying numbers of subjects, objects, and initial policy sets. The baseline policy sets, which govern permission decisions between subjects and objects, serve as the ground truth for comparison. Each LLM-generated policy was evaluated against the baseline policy using standard performance metrics. The results indicate that LLMs can effectively infer compact and valid ABAC policies for small-scale scenarios. However, as the system size increases, characterized by higher numbers of subjects and objects, LLM outputs exhibit declining accuracy and precision, coupled with significant increase in the size of policy generated, which is beyond the optimal size. These findings highlight both the promise and limitations of current LLM architectures for scalable policy mining in access control domains. Future work will explore hybrid approaches that combine prompt optimization with classical rule mining algorithms to improve scalability and interpretability in complex ABAC environments.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)によるABAC(Attribute-based Access Control)ポリシーマイニングの実施に関する実証的研究を行う。
ABACは、きめ細かいコンテキスト対応アクセス管理を提供するが、アクセスポリシーの数と複雑さの増大は、それらの定式化と評価を難しくする。
簡潔で正確なポリシーを合成するタスクに対処するため、現在最先端のLCM、特にGoogle Gemini(FlashとPro)とOpenAI ChatGPTの性能を潜在的政策マイニングエンジンとして評価した。
実験的なフレームワークがPythonで開発され、様々な主題、オブジェクト、初期ポリシーセットによってパラメータ化されたランダム化されたアクセスデータを生成する。
基本方針は、主題と対象間の許可決定を管理するもので、比較の根拠となる真実として機能する。
各LCM生成ポリシーは,標準性能指標を用いて基準方針に対して評価された。
その結果,LLMは小規模なシナリオに対して,コンパクトかつ有効なABACポリシーを効果的に推論できることが示唆された。
しかし、対象物や対象物の数が多くなると、LLM出力は精度と精度が低下し、最適サイズを超えている政策の規模が大幅に増大する。
これらの知見は、アクセス制御ドメインにおけるスケーラブルなポリシーマイニングのための、現在のLLMアーキテクチャの約束と限界の両方を強調している。
今後の研究は、複雑なABAC環境におけるスケーラビリティと解釈可能性を改善するために、迅速な最適化と古典的なルールマイニングアルゴリズムを組み合わせたハイブリッドアプローチを検討する。
関連論文リスト
- Exploring Large Language Models for Access Control Policy Synthesis and Summarization [0.26763498831034044]
大規模言語モデル(LLM)は、自動コード合成と要約において大きな成功を収めている。
本稿では,アクセス制御ポリシの合成と要約におけるLLMの有効性について検討する。
論文 参考訳(メタデータ) (2025-10-23T16:06:15Z) - Verifying Memoryless Sequential Decision-making of Large Language Models [4.570003973862485]
本稿では,大規模言語モデル(LLM)に基づく政策を逐次意思決定タスクにおいて厳密かつ自動検証するツールを提案する。
逐次意思決定タスクを表すマルコフ決定プロセス(MDP)、LCMポリシー、およびPCTL式として表現される安全要件を考慮し、本手法はMDPの到達可能な部分のみを段階的に構成する。
結果の形式モデルがStormでチェックされ、ポリシーが指定された安全資産を満たすかどうかが決定される。
論文 参考訳(メタデータ) (2025-10-08T08:31:48Z) - Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - IMLE Policy: Fast and Sample Efficient Visuomotor Policy Learning via Implicit Maximum Likelihood Estimation [3.7584322469996896]
IMLEポリシーは、Implicit Maximum Likelihood Estimation (IMLE)に基づく新しい行動クローニング手法である
複雑なマルチモーダルな振る舞いを学ぶ上で、ベースラインメソッドのパフォーマンスに合わせるために、最小限のデモから効果的に学習し、平均で38%のデータを必要とします。
シミュレーションおよび実環境における多様な操作タスクに対するアプローチを検証し、データ制約下で複雑な振る舞いをキャプチャする能力を示す。
論文 参考訳(メタデータ) (2025-02-17T23:22:49Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - Mutual Information Regularized Offline Reinforcement Learning [76.05299071490913]
我々は、データセットにおける状態と行動間の相互情報の観点から、オフラインRLにアプローチする新しいMISAフレームワークを提案する。
この下位境界の最適化は、オフラインデータセット上での一段階改善されたポリシーの可能性の最大化と等価であることを示す。
MISAの3つの異なる変種を導入し、より厳密な相互情報によりオフラインのRL性能が向上することを示した。
論文 参考訳(メタデータ) (2022-10-14T03:22:43Z) - Nearly Optimal Latent State Decoding in Block MDPs [74.51224067640717]
エピソードブロック MDP では、意思決定者は少数の潜在状態から生成される豊富な観測やコンテキストにアクセスすることができる。
まず、固定動作ポリシーに基づいて生成されたデータに基づいて、潜時状態復号関数を推定することに興味がある。
次に、報酬のないフレームワークにおいて、最適に近いポリシーを学習する問題について研究する。
論文 参考訳(メタデータ) (2022-08-17T18:49:53Z) - Policy Information Capacity: Information-Theoretic Measure for Task
Complexity in Deep Reinforcement Learning [83.66080019570461]
課題の難易度について,環境にとらわれない,アルゴリズムにとらわれない2つの定量的指標を提案する。
これらの指標は、様々な代替案よりも、正規化タスク可解性スコアとの相関が高いことを示す。
これらのメトリクスは、鍵設計パラメータの高速かつ計算効率の良い最適化にも使用できる。
論文 参考訳(メタデータ) (2021-03-23T17:49:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。