論文の概要: Can LLMs Make (Personalized) Access Control Decisions?
- arxiv url: http://arxiv.org/abs/2511.20284v1
- Date: Tue, 25 Nov 2025 13:11:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.473971
- Title: Can LLMs Make (Personalized) Access Control Decisions?
- Title(参考訳): LLMは(パーソナライズされた)アクセス制御の決定を可能にするか?
- Authors: Friederike Groschupp, Daniele Lain, Aritra Dhar, Lara Magdalena Lazier, Srdjan Čapkun,
- Abstract要約: 本研究では,大規模言語モデルの処理能力と推論能力を活用し,動的かつコンテキスト対応なアクセス制御決定を行うことを提案する。
ユーザ調査を行い、307の自然言語プライバシーステートメントと14,682のアクセス制御決定結果を得た。
以上の結果から,LLMはユーザの好みを反映し,ほとんどのユーザによる意思決定と比較して最大86%の精度を達成できることがわかった。
- 参考スコア(独自算出の注目度): 2.854451361373021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Precise access control decisions are crucial to the security of both traditional applications and emerging agent-based systems. Typically, these decisions are made by users during app installation or at runtime. Due to the increasing complexity and automation of systems, making these access control decisions can add a significant cognitive load on users, often overloading them and leading to suboptimal or even arbitrary access control decisions. To address this problem, we propose to leverage the processing and reasoning capabilities of large language models (LLMs) to make dynamic, context-aware decisions aligned with the user's security preferences. For this purpose, we conducted a user study, which resulted in a dataset of 307 natural-language privacy statements and 14,682 access control decisions made by users. We then compare these decisions against those made by two versions of LLMs: a general and a personalized one, for which we also gathered user feedback on 1,446 of its decisions. Our results show that in general, LLMs can reflect users' preferences well, achieving up to 86\% accuracy when compared to the decision made by the majority of users. Our study also reveals a crucial trade-off in personalizing such a system: while providing user-specific privacy preferences to the LLM generally improves agreement with individual user decisions, adhering to those preferences can also violate some security best practices. Based on our findings, we discuss design and risk considerations for implementing a practical natural-language-based access control system that balances personalization, security, and utility.
- Abstract(参考訳): 正確なアクセス制御の決定は、従来のアプリケーションと新しいエージェントベースのシステムのセキュリティに不可欠である。
通常、これらの決定は、アプリのインストール中または実行時にユーザによって行われる。
システムの複雑さと自動化の増大により、これらのアクセス制御の決定は、ユーザに対して重大な認知的負荷を与え、しばしばオーバーロードし、亜最適または任意のアクセス制御決定につながる。
この問題に対処するために,大規模言語モデル(LLM)の処理能力と推論能力を活用し,ユーザのセキュリティ嗜好に適合する動的文脈を考慮した意思決定を行うことを提案する。
そこで本研究では,307の自然言語プライバシステートメントと14,682のアクセス制御決定のデータセットを作成した。
次に、これらの決定をLLMの2つのバージョンであるジェネラルとパーソナライズされたものと比較する。
その結果, LLM はユーザの好みをよく反映し, 大多数のユーザによる意思決定と比較して最大 86% の精度で達成できることがわかった。
LLMにユーザー固有のプライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・プライバシ・コンセンサス・コンセンサス・コンセンサス)を提供すると、一般的には個々のユーザ決定との合意が向上する一方で、それらのプライバシ・プライバシ・プライバシ・プラクティスにも違反する可能性がある。
本研究は,パーソナライゼーション,セキュリティ,ユーティリティのバランスをとる,実用的な自然言語ベースのアクセス制御システムを実現するための設計とリスクを考慮した検討である。
関連論文リスト
- SteerX: Disentangled Steering for LLM Personalization [75.89038195784701]
大規模言語モデル(LLM)は近年顕著な成功を収めており、幅広いアプリケーションを可能にしている。
このようなアシスタントを構築する上で重要な要素は、ユーザの好みやニーズが多岐にわたるため、LLMをパーソナライズすることである。
本稿では、好みに依存しないコンポーネントから選好駆動コンポーネントを分離するSteerXを提案する。
論文 参考訳(メタデータ) (2025-10-25T11:26:20Z) - Implementing Rational Choice Functions with LLMs and Measuring their Alignment with User Preferences [15.72977233489024]
我々は,大規模言語モデルを用いて合理的選択関数を実装する設計原則を提唱した。
自動車分野におけるIUIの実用化に向けた実証的研究を通じて,本手法の適用性を実証する。
論文 参考訳(メタデータ) (2025-04-22T09:08:21Z) - iAgent: LLM Agent as a Shield between User and Recommender Systems [33.289547118795674]
レコメンダシステムは、通常、ユーザーがプラットフォームレコメンデーションアルゴリズムの制御下で直接露出される、ユーザープラットフォームパラダイムを取り入れている。
本稿では,エージェントがユーザとレコメンダシステムの間の保護シールドとして機能する,新しいユーザエージェントプラットフォームパラダイムを提案する。
論文 参考訳(メタデータ) (2025-02-20T15:58:25Z) - SudoLM: Learning Access Control of Parametric Knowledge with Authorization Alignment [51.287157951953226]
我々は,特定のパラメトリック知識のアクセス制御をLLMが学べるフレームワークであるSudoLMを提案する。
2つのアプリケーションシナリオの実験は、SudoLMがユーザのパラメトリック知識へのアクセスを効果的に制御し、その汎用性を維持することを実証している。
論文 参考訳(メタデータ) (2024-10-18T17:59:51Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。