論文の概要: "I Apologize For Not Understanding Your Policy": Exploring the Specification and Evaluation of User-Managed Access Control Policies by AI Virtual Assistants
- arxiv url: http://arxiv.org/abs/2505.07759v1
- Date: Mon, 12 May 2025 17:03:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.504737
- Title: "I Apologize For Not Understanding Your Policy": Exploring the Specification and Evaluation of User-Managed Access Control Policies by AI Virtual Assistants
- Title(参考訳): 「ポリシーの理解に謝る」:AIバーチャルアシスタントによるユーザ管理アクセス制御ポリシーの仕様と評価を探る
- Authors: Jennifer Mondragon, Carlos Rubio-Medrano, Gael Cruz, Dvijesh Shastri,
- Abstract要約: 本研究は,現在利用可能なVAが,異なるシナリオで効果的にU-MAPを管理できるかどうかを探索的に調査する。
構造化試験を行ない,そのようなVAの理解度を評価し,様々なU-MAPアプローチにおける理解の欠如を明らかにした。
我々の研究は、複雑な認証ルールを管理し、動的変化に適応するためにVAをさらに改善する方法に関する貴重な洞察を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rapid evolution of Artificial Intelligence (AI)-based Virtual Assistants (VAs) e.g., Google Gemini, ChatGPT, Microsoft Copilot, and High-Flyer Deepseek has turned them into convenient interfaces for managing emerging technologies such as Smart Homes, Smart Cars, Electronic Health Records, by means of explicit commands,e.g., prompts, which can be even launched via voice, thus providing a very convenient interface for end-users. However, the proper specification and evaluation of User-Managed Access Control Policies (U-MAPs), the rules issued and managed by end-users to govern access to sensitive data and device functionality - within these VAs presents significant challenges, since such a process is crucial for preventing security vulnerabilities and privacy leaks without impacting user experience. This study provides an initial exploratory investigation on whether current publicly-available VAs can manage U-MAPs effectively across differing scenarios. By conducting unstructured to structured tests, we evaluated the comprehension of such VAs, revealing a lack of understanding in varying U-MAP approaches. Our research not only identifies key limitations, but offers valuable insights into how VAs can be further improved to manage complex authorization rules and adapt to dynamic changes.
- Abstract(参考訳): Google Gemini、ChatGPT、Microsoft Copilot、High-Flyer Deepseekといった人工知能(AI)ベースの仮想アシスタント(VAs)の急速な進化により、スマートホーム、スマートカー、電子ヘルスレコードといった新興技術を管理するための便利なインターフェースが、音声で起動可能な明示的なコマンド、例えばプロンプトによって実現された。
しかし、ユーザ管理アクセス制御ポリシー(U-MAP)の適切な仕様と評価は、エンドユーザによって発行され、管理されているルールで、機密データやデバイス機能へのアクセスを規制している。
本研究は,現在利用可能なVAが,異なるシナリオで効果的にU-MAPを管理できるかどうかを探索的に調査する。
構造化試験を行ない,そのようなVAの理解度を評価し,様々なU-MAPアプローチにおける理解の欠如を明らかにした。
我々の研究は重要な制限を識別するだけでなく、複雑な認証ルールの管理と動的変更への適応のためにVAをさらに改善する方法に関する貴重な洞察を提供する。
関連論文リスト
- Towards Trustworthy GUI Agents: A Survey [64.6445117343499]
本調査では,GUIエージェントの信頼性を5つの重要な次元で検証する。
敵攻撃に対する脆弱性、シーケンシャルな意思決定における障害モードのカスケードなど、大きな課題を特定します。
GUIエージェントが普及するにつれて、堅牢な安全基準と責任ある開発プラクティスを確立することが不可欠である。
論文 参考訳(メタデータ) (2025-03-30T13:26:00Z) - AgentDAM: Privacy Leakage Evaluation for Autonomous Web Agents [75.85554113398626]
我々は、既存のAIエージェントと将来のAIエージェントが、潜在的にプライベートな情報の処理をどの程度制限できるかを評価するために、AgentDAMと呼ばれるベンチマークを開発する。
我々のベンチマークは、現実的なWebインタラクションシナリオをシミュレートし、既存のWebナビゲーションエージェントすべてに適用できる。
論文 参考訳(メタデータ) (2025-03-12T19:30:31Z) - GOD model: Privacy Preserved AI School for Personal Assistant [3.3015224434662396]
私たちは、デバイス上でAIアシスタントをトレーニングし評価するためのセキュアでプライバシー保護のフレームワークであるGuardian of Data(GOD)を紹介します。
GODは、ユーザデータと自律性を保護しながら贈り物を推奨するなど、アシスタントがユーザニーズをいかに予測できるかを測定します。
論文 参考訳(メタデータ) (2025-02-24T20:30:17Z) - Decoding User Concerns in AI Health Chatbots: An Exploration of Security and Privacy in App Reviews [1.2437039433843042]
本研究では,セキュリティプライバシに関する懸念(SPR)を特定する上で,特にBARTとGemini GenAIの自動化手法の有効性を評価する。
以上の結果から,SPR分類におけるGeminiの性能は手動ラベリングに匹敵するものの,どちらの自動手法にも限界があることが示唆された。
論文 参考訳(メタデータ) (2025-01-31T00:38:37Z) - Privacy Risks in Reinforcement Learning for Household Robots [42.675213619562975]
プライバシーは、ロボットが実質的な個人情報にアクセスすることによって、具体化されたAIの領域における重要な関心事として浮上する。
本稿では,値に基づくアルゴリズムと勾配に基づくアルゴリズムのトレーニングプロセスに対する攻撃を提案し,状態,行動,監督信号の再構成に勾配インバージョンを利用する。
論文 参考訳(メタデータ) (2023-06-15T16:53:26Z) - VBSF-TLD: Validation-Based Approach for Soft Computing-Inspired Transfer
Learning in Drone Detection [0.0]
本稿では,コンピュータビジョンベースモジュールの不可欠な部分を構成する移動型ドローン検出手法を提案する。
事前学習されたモデルの知識を関連ドメインから活用することにより、限られたトレーニングデータであっても、トランスファー学習によりより良い結果が得られる。
特に、このスキームの有効性は、IOUベースの検証結果によって強調される。
論文 参考訳(メタデータ) (2023-06-11T22:30:23Z) - Efficient IAM Greybox Penetration Testing [6.350737151909975]
IAMは特権エスカレーション(PE)攻撃を招き、経済的に大きな損失をもたらす可能性がある。
サードパーティのクラウドセキュリティサービスは、ホワイトボックスの侵入テストを使用してこのような問題を検出する。
IAM PEを効率よく検出するための、サードパーティサービスのための最初のグレーボックス浸透試験手法であるTACを導入する。
論文 参考訳(メタデータ) (2023-04-27T21:44:59Z) - Mitigating Sovereign Data Exchange Challenges: A Mapping to Apply
Privacy- and Authenticity-Enhancing Technologies [67.34625604583208]
AET(Authenticity Enhancing Technologies)とPET(Privacy-Enhancing Technologies)は、SDE(Sovereign Data Exchange)に関与していると考えられている。
PETとAETは技術的に複雑であり、採用を妨げる。
本研究は,挑戦指向技術マッピングを実証的に構築する。
論文 参考訳(メタデータ) (2022-06-20T08:16:42Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。