論文の概要: Towards Automating Data Access Permissions in AI Agents
- arxiv url: http://arxiv.org/abs/2511.17959v1
- Date: Sat, 22 Nov 2025 07:50:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.542946
- Title: Towards Automating Data Access Permissions in AI Agents
- Title(参考訳): AIエージェントにおけるデータアクセス許可の自動化に向けて
- Authors: Yuhao Wu, Ke Yang, Franziska Roesner, Tadayoshi Kohno, Ning Zhang, Umar Iqbal,
- Abstract要約: 我々はAIエージェントのための自動パーミッション管理を提案する。
鍵となる考え方は、ユーザの許可決定に影響を与える要因を特定するために、ユーザスタディを実施することである。
本研究では,全精度85.1%,高信頼度予測94.4%のパーミッション予測モデルを開発した。
- 参考スコア(独自算出の注目度): 33.364136040885846
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI agents attempt to autonomously act on users' behalf, they raise transparency and control issues. We argue that permission-based access control is indispensable in providing meaningful control to the users, but conventional permission models are inadequate for the automated agentic execution paradigm. We therefore propose automated permission management for AI agents. Our key idea is to conduct a user study to identify the factors influencing users' permission decisions and to encode these factors into an ML-based permission management assistant capable of predicting users' future decisions. We find that participants' permission decisions are influenced by communication context but importantly individual preferences tend to remain consistent within contexts, and align with those of other participants. Leveraging these insights, we develop a permission prediction model achieving 85.1% accuracy overall and 94.4% for high-confidence predictions. We find that even without using permission history, our model achieves an accuracy of 66.9%, and a slight increase of training samples (i.e., 1-4) can substantially increase the accuracy by 10.8%.
- Abstract(参考訳): AIエージェントがユーザーの代理として自律的に行動しようとすると、透明性と制御上の問題を提起する。
我々は、ユーザに対して有意義な制御を提供するには、パーミッションベースのアクセス制御が不可欠であると主張するが、従来のパーミッションモデルは自動エージェント実行パラダイムでは不十分である。
そこで我々は,AIエージェントの自動許可管理を提案する。
私たちのキーとなる考え方は、ユーザの許可決定に影響を与える要因を特定し、これらの要因をMLベースの許可管理アシスタントにエンコードすることで、ユーザの将来の決定を予測することです。
参加者の許可決定はコミュニケーションの文脈に影響されているが、重要な個別の嗜好は文脈内で整合性を維持し、他の参加者と整合する傾向にある。
これらの知見を生かして,全精度85.1%,高信頼度予測94.4%のパーミッション予測モデルを開発した。
その結果,許可履歴を使わずとも66.9%の精度を達成でき,トレーニングサンプル(1-4)をわずかに増加させることで,精度を10.8%向上させることができることがわかった。
関連論文リスト
- Shoot First, Ask Questions Later? Building Rational Agents that Explore and Act Like People [81.63702981397408]
限られたリソースを前提として、言語モデル(LM)に基づいたエージェントは、どの程度合理的に行動するのか?
エージェント情報探索をベンチマークし,強化する手法を開発し,人間の行動から洞察を抽出する。
Spotterエージェントでは、LMのみのベースラインよりも14.7%の精度で精度を向上し、Captainエージェントでは、期待情報ゲイン(EIG)を0.227ビット(達成可能なノイズ天井の94.2%)まで引き上げる。
論文 参考訳(メタデータ) (2025-10-23T17:57:28Z) - How can we assess human-agent interactions? Case studies in software agent design [52.953425368394306]
我々は,人間とエージェントの相互作用の厳密な評価に向けて,二つの大きな一歩を踏み出した。
エージェント設計のより効率的な人間中心評価のためのフレームワークであるPULSEを提案する。
私たちは、オープンソースのソフトウェアエージェントOpenHandsを中心に構築された大規模なWebプラットフォームにフレームワークをデプロイします。
論文 参考訳(メタデータ) (2025-10-10T19:04:28Z) - When Hallucination Costs Millions: Benchmarking AI Agents in High-Stakes Adversarial Financial Markets [0.3069921776214295]
AI評価において重要な盲点を明らかにするベンチマークであるCAIAを提示する。
我々は178の時間短縮タスクに対して17のモデルを評価し,真理と操作の区別をエージェントに要求した。
ツールがなければ、フロンティアモデルでさえ、ジュニアアナリストが日常的に扱うタスクにおいて28%の精度しか達成できません。
論文 参考訳(メタデータ) (2025-09-30T22:39:06Z) - Security Challenges in AI Agent Deployment: Insights from a Large Scale Public Competition [101.86739402748995]
44の現実的なデプロイメントシナリオを対象とした,22のフロンティアAIエージェントを対象にしています。
Agent Red Teamingベンチマークを構築し、19の最先端モデルで評価します。
私たちの発見は、今日のAIエージェントの重要かつ永続的な脆弱性を浮き彫りにしたものです。
論文 参考訳(メタデータ) (2025-07-28T05:13:04Z) - Towards Uncertainty Aware Task Delegation and Human-AI Collaborative Decision-Making [3.6393552749238673]
本稿では,AIへのタスクデリゲートのための距離ベース不確実性スコアの探索の有用性について検討する。
これらのスコアは、人間とAIによる意思決定のための埋め込み表現によってどのように視覚化されるかを示す。
論文 参考訳(メタデータ) (2025-05-23T16:12:39Z) - AgentDAM: Privacy Leakage Evaluation for Autonomous Web Agents [66.29263282311258]
我々は、AIウェブナビゲーションエージェントがデータ最小化のプライバシー原則に従うかどうかを測定する新しいベンチマークAgentDAMを紹介する。
我々のベンチマークは、現実的なWebインタラクションシナリオをエンドツーエンドでシミュレートし、既存のWebナビゲーションエージェントに適応する。
論文 参考訳(メタデータ) (2025-03-12T19:30:31Z) - On the Standardization of Behavioral Use Clauses and Their Adoption for
Responsible Licensing of AI [27.748532981456464]
2018年、AI資産をリリースするためのフレームワークを提供するために、行動利用条項付きのライセンスが提案された。
2023年末時点で、4万のソフトウェアとモデルリポジトリの順序で、責任あるAIライセンスが採用されている。
論文 参考訳(メタデータ) (2024-02-07T22:29:42Z) - Unsupervised User-Based Insider Threat Detection Using Bayesian Gaussian
Mixture Models [0.0]
本稿では,監査データに基づく教師なしインサイダー脅威検出システムを提案する。
提案手法は,ユーザベースモデルを用いて,特定の振る舞いのモデル化とWord2Vecに基づく自動特徴抽出システムを実現する。
その結果,提案手法は最先端手法と競合し,精度が88%,真負率が93%,偽陽性率が6.9%であった。
論文 参考訳(メタデータ) (2022-11-23T13:45:19Z) - User Driven Model Adjustment via Boolean Rule Explanations [7.814304432499296]
本稿では,MLモデルの予測能力を活用しながら,ユーザが決定境界に対する修正を指定できるようにするソリューションを提案する。
我々のインタラクティブなオーバーレイアプローチは、モデルの再トレーニングを必要とせずにこの目標を達成する。
ユーザフィードバックルールをML予測に階層化して即時変更を提供することで,少ないデータで学習を支援することを実証する。
論文 参考訳(メタデータ) (2022-03-28T20:27:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。