論文の概要: Role-Aware Language Models for Secure and Contextualized Access Control in Organizations
- arxiv url: http://arxiv.org/abs/2507.23465v1
- Date: Thu, 31 Jul 2025 11:41:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:09.711713
- Title: Role-Aware Language Models for Secure and Contextualized Access Control in Organizations
- Title(参考訳): 組織における安全・状況に応じたアクセス制御のための役割認識型言語モデル
- Authors: Saeed Almheiri, Yerulan Kongrat, Adrian Santosh, Ruslan Tasmukhanov, Josemaria Vera, Muhammad Dehan Al Kautsar, Fajri Koto,
- Abstract要約: 大規模言語モデル(LLM)は、ますますエンタープライズ環境にデプロイされている。
組織の役割の異なるアクセス権限を反映した応答を生成するために,LSMを微調整できるかどうかを検討する。
- 参考スコア(独自算出の注目度): 4.122315998598296
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) are increasingly deployed in enterprise settings, controlling model behavior based on user roles becomes an essential requirement. Existing safety methods typically assume uniform access and focus on preventing harmful or toxic outputs, without addressing role-specific access constraints. In this work, we investigate whether LLMs can be fine-tuned to generate responses that reflect the access privileges associated with different organizational roles. We explore three modeling strategies: a BERT-based classifier, an LLM-based classifier, and role-conditioned generation. To evaluate these approaches, we construct two complementary datasets. The first is adapted from existing instruction-tuning corpora through clustering and role labeling, while the second is synthetically generated to reflect realistic, role-sensitive enterprise scenarios. We assess model performance across varying organizational structures and analyze robustness to prompt injection, role mismatch, and jailbreak attempts.
- Abstract(参考訳): 大規模言語モデル(LLM)がエンタープライズ環境にますます導入されるにつれて、ユーザの役割に基づいたモデル動作の制御が必須の要件となっている。
既存の安全法は通常、ロール固有のアクセス制約に対処することなく、均一なアクセスを前提として有害または有害なアウトプットの防止に重点を置いている。
本研究では,LLMを微調整して,組織の役割の異なるアクセス権限を反映した応答を生成できるかどうかを検討する。
本稿では,BERTベースの分類器,LLMベースの分類器,ロール条件付き生成という3つのモデリング手法について検討する。
これらの手法を評価するために,2つの補完的データセットを構築した。
1つはクラスタリングとロールラベリングによる既存の命令チューニングコーパスから、もう1つは現実的でロールに敏感なエンタープライズシナリオを反映して合成的に生成される。
様々な組織構造にまたがるモデル性能を評価し、ロバスト性を分析し、インジェクション、ロールミスマッチ、ジェイルブレイクの試みを促進させる。
関連論文リスト
- OrgAccess: A Benchmark for Role Based Access Control in Organization Scale LLMs [7.999158988904784]
大規模言語モデル(LLM)は、エンタープライズ環境での統合知識リポジトリとインテリジェントアシスタントとして機能する。
この重要な能力を評価することは、現実の企業データとアクセス制御ポリシーの独自性と機密性のため、本質的に難しい。
組織の役割やレベルに共通する40種類のパーミッションからなる,総合的かつ代表的な textbfOrgAccess ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-05-25T14:30:15Z) - New Dataset and Methods for Fine-Grained Compositional Referring Expression Comprehension via Specialist-MLLM Collaboration [49.180693704510006]
Referring Expression (REC) は、言語理解、画像理解、言語と画像の接点の相互作用を評価するためのクロスモーダルなタスクである。
MLLM(Multimodal Large Language Models)の試験場として機能する。
論文 参考訳(メタデータ) (2025-02-27T13:58:44Z) - Enhancing Role-playing Systems through Aggressive Queries: Evaluation and Improvement [17.5855800570993]
大言語モデル(LLM)は、特にロールプレイングシステム(RPS)分野において、対話生成を新しい領域に推進している。
既存のLLMベースのRSSは、境界シナリオで複雑なクエリと閉じ込められたクエリを扱う場合、役割と整合するのに依然として苦労している。
本研究は,MORTISE (Modular Orchestrated Trap-setting Interaction SystEm) を設計し,ロールプレイングLLMの性能向上を図る。
論文 参考訳(メタデータ) (2024-02-16T12:12:05Z) - RoleLLM: Benchmarking, Eliciting, and Enhancing Role-Playing Abilities of Large Language Models [107.00832724504752]
大規模言語モデル(LLM)におけるロールプレイング能力をベンチマークし、評価し、拡張するフレームワークであるRoleLLMを紹介する。
Context-InstructとRoleGPTによって、168,093サンプルでロールプレイする最初の体系的できめ細かい文字レベルのベンチマークデータセットであるRoleBenchを作成します。
論文 参考訳(メタデータ) (2023-10-01T17:52:59Z) - Intuitive or Dependent? Investigating LLMs' Behavior Style to
Conflicting Prompts [9.399159332152013]
本研究では,Large Language Models (LLM) の動作を,内部記憶と競合するプロンプトに直面する場合の挙動について検討する。
これにより、LLMの意思決定機構を理解し、検索強化生成(RAG)のような現実世界のアプリケーションにも役立つ。
論文 参考訳(メタデータ) (2023-09-29T17:26:03Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。