論文の概要: Uncertainty-Aware, Risk-Adaptive Access Control for Agentic Systems using an LLM-Judged TBAC Model
- arxiv url: http://arxiv.org/abs/2510.11414v1
- Date: Mon, 13 Oct 2025 13:52:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.386967
- Title: Uncertainty-Aware, Risk-Adaptive Access Control for Agentic Systems using an LLM-Judged TBAC Model
- Title(参考訳): LLM-Judged TBACモデルを用いたエージェントシステムの不確実性とリスク適応アクセス制御
- Authors: Charles Fleming, Ashish Kundu, Ramana Kompella,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を自律的かつリスクを意識した判断として利用することにより,タスクベースアクセス制御(TBAC)モデルを拡張した高度なセキュリティフレームワークを提案する。
このモデルは、エージェントの意図に基づいてアクセス制御決定を行うだけでなく、ターゲットリソースに関連する固有のテキストbfriskを明示的に考慮することによって、アクセス制御を決定する。
- 参考スコア(独自算出の注目度): 11.50995963023462
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of autonomous AI agents within enterprise environments introduces a critical security challenge: managing access control for emergent, novel tasks for which no predefined policies exist. This paper introduces an advanced security framework that extends the Task-Based Access Control (TBAC) model by using a Large Language Model (LLM) as an autonomous, risk-aware judge. This model makes access control decisions not only based on an agent's intent but also by explicitly considering the inherent \textbf{risk associated with target resources} and the LLM's own \textbf{model uncertainty} in its decision-making process. When an agent proposes a novel task, the LLM judge synthesizes a just-in-time policy while also computing a composite risk score for the task and an uncertainty estimate for its own reasoning. High-risk or high-uncertainty requests trigger more stringent controls, such as requiring human approval. This dual consideration of external risk and internal confidence allows the model to enforce a more robust and adaptive version of the principle of least privilege, paving the way for safer and more trustworthy autonomous systems.
- Abstract(参考訳): エンタープライズ環境における自律型AIエージェントの拡散は、緊急時のアクセス制御の管理という、事前定義されたポリシーが存在しない新しいタスクという、重要なセキュリティ上の課題を提起する。
本稿では,大規模言語モデル(LLM)を自律的かつリスクを意識した判断として利用することにより,タスクベースアクセス制御(TBAC)モデルを拡張した高度なセキュリティフレームワークを提案する。
このモデルは、エージェントの意図だけでなく、ターゲットリソースに関連する固有の \textbf{risk と LLM 独自の \textbf{model uncertainty} を意思決定プロセスで明示的に検討することで、アクセス制御の決定を行う。
エージェントが新しいタスクを提案するとき、LCM判事は、タスクの複合リスクスコアと、それ自身の推論の不確実性推定を演算しながら、ジャスト・イン・タイムポリシーを合成する。
高リスクまたは高不確実性要求は、人間の承認を必要とするなど、より厳格な制御を引き起こす。
この外部リスクと内部信頼の二重考慮により、モデルでは最小特権の原則をより堅牢で適応的なバージョンを適用し、より安全で信頼性の高い自律システムを実現することができる。
関連論文リスト
- Regulating the Agency of LLM-based Agents [0.0]
本稿では,AIシステムを直接計測し,制御する手法を提案する。
我々は, LLMをベースとしたエージェントのエージェントを, インテリジェンス関連の対策とは無関係な資産として概念化する。
論文 参考訳(メタデータ) (2025-09-25T20:14:02Z) - SafeMobile: Chain-level Jailbreak Detection and Automated Evaluation for Multimodal Mobile Agents [58.21223208538351]
本研究は,モバイルマルチモーダルエージェントを取り巻くセキュリティ問題について考察する。
行動シーケンス情報を組み込んだリスク識別機構の構築を試みる。
また、大規模言語モデルに基づく自動アセスメントスキームも設計している。
論文 参考訳(メタデータ) (2025-07-01T15:10:00Z) - GAF-Guard: An Agentic Framework for Risk Management and Governance in Large Language Models [2.2713444594182843]
大規模言語モデル(LLM)は、様々な領域にまたがって適用され続けている。
本稿では、ユーザ、ユースケース、モデル自体を中央に配置するLCMガバナンスのためのエージェントフレームワークを紹介する。
このフレームワークは、LLMベースのアプリケーションのデプロイに伴うリスクを検出し、監視するように設計されている。
論文 参考訳(メタデータ) (2025-07-01T10:01:21Z) - A Survey on Autonomy-Induced Security Risks in Large Model-Based Agents [45.53643260046778]
大規模言語モデル(LLM)の最近の進歩は、自律型AIエージェントの台頭を触媒している。
これらの大きなモデルエージェントは、静的推論システムからインタラクティブなメモリ拡張エンティティへのパラダイムシフトを示す。
論文 参考訳(メタデータ) (2025-06-30T13:34:34Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - Answer, Refuse, or Guess? Investigating Risk-Aware Decision Making in Language Models [63.559461750135334]
言語モデル(LM)は、目標を達成するために自律的に行動可能なエージェントを構築するために、ますます使われています。
本研究では,人為的リスク構造を体系的に変化させる評価枠組みを用いて,この「回答または延期」問題を考察する。
回答や判断に要する独立したスキルを分離した簡易なスキル分解手法が,LMの意思決定ポリシーを一貫して改善できることがわかった。
論文 参考訳(メタデータ) (2025-03-03T09:16:26Z) - AGrail: A Lifelong Agent Guardrail with Effective and Adaptive Safety Detection [47.83354878065321]
我々は,エージェントの安全性を高めるため,生涯のガードレールであるAGrailを提案する。
AGrailは適応型安全チェック生成、効果的な安全チェック最適化、ツールの互換性と柔軟性を備えている。
論文 参考訳(メタデータ) (2025-02-17T05:12:33Z) - Free Energy Risk Metrics for Systemically Safe AI: Gatekeeping Multi-Agent Study [0.4166512373146748]
エージェントおよびマルチエージェントシステムにおけるリスク測定の基礎として,フリーエネルギー原理を考察する。
異なる状況やニーズに対してフレキシブルな累積的リスク露光指標を導入します。
AV艦隊におけるゲートキーパーの導入は,低浸透時であっても,システム安全性の向上の観点から,大きな肯定的な外部性を生み出すことが示されている。
論文 参考訳(メタデータ) (2025-02-06T17:38:45Z) - Safety Correction from Baseline: Towards the Risk-aware Policy in
Robotics via Dual-agent Reinforcement Learning [64.11013095004786]
本稿では,ベースラインと安全エージェントからなる二重エージェント型安全強化学習戦略を提案する。
このような分離されたフレームワークは、RLベースの制御に対して高い柔軟性、データ効率、リスク認識を可能にする。
提案手法は,難易度の高いロボットの移動・操作作業において,最先端の安全RLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2022-12-14T03:11:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。