論文の概要: A First Look at Privacy Risks of Android Task-executable Voice Assistant Applications
- arxiv url: http://arxiv.org/abs/2509.23680v1
- Date: Sun, 28 Sep 2025 06:47:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.37217
- Title: A First Look at Privacy Risks of Android Task-executable Voice Assistant Applications
- Title(参考訳): Androidタスク実行可能な音声アシスタントアプリケーションのプライバシリスクに関する一考察
- Authors: Shidong Pan, Yikai Ge, Xiaoyu Sun,
- Abstract要約: 本稿では,Androidタスク実行可能なVAアプリケーションにおけるプライバシーリスクに関する,ユーザ中心の総合的研究について述べる。
プライバシーラベル、ポリシー、マニフェストファイルを含む6つのソースで、プライバシー宣言をクロスチェックします。
1)Alexaスキルのような統合されたミニアプリが不十分に表現されているメガアプリにおけるプライバシーの不正開示、2)アプリケーション間インタラクションによる特権エスカレーション、3)Androidの通信メカニズムを利用してユーザの同意を回避し、(3)Googleのシステムアプリケーションの悪用により、アプリが危険な許可の宣言を避けることができる。
- 参考スコア(独自算出の注目度): 2.865294888425256
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the development of foundation AI technologies, task-executable voice assistants (VAs) have become more popular, enhancing user convenience and expanding device functionality. Android task-executable VAs are applications that are capable of understanding complex tasks and performing corresponding operations. Given their prevalence and great autonomy, there is no existing work examine the privacy risks within the voice assistants from the task-execution pattern in a holistic manner. To fill this research gap, this paper presents a user-centric comprehensive empirical study on privacy risks in Android task-executable VA applications. We collect ten mainstream VAs as our research target and analyze their operational characteristics. We then cross-check their privacy declarations across six sources, including privacy labels, policies, and manifest files, and our findings reveal widespread inconsistencies. Moreover, we uncover three significant privacy threat models: (1) privacy misdisclosure in mega apps, where integrated mini apps such as Alexa skills are inadequately represented; (2) privilege escalation via inter-application interactions, which exploit Android's communication mechanisms to bypass user consent; and (3) abuse of Google system applications, enabling apps to evade the declaration of dangerous permissions. Our study contributes actionable recommendations for practitioners and underscores broader relevance of these privacy risks to emerging autonomous AI agents.
- Abstract(参考訳): 基礎となるAI技術の発展に伴い、タスク実行可能な音声アシスタント(VA)が普及し、ユーザの利便性を高め、デバイス機能を拡張する。
Androidタスク実行可能なVAは、複雑なタスクを理解し、対応する操作を実行することができるアプリケーションである。
その頻度と大きな自律性を考えると、タスク実行パターンから音声アシスタント内のプライバシーリスクを総合的に調査する作業は存在しない。
本研究のギャップを埋めるために,Androidタスク実行可能なVAアプリケーションにおけるプライバシーリスクに関する,ユーザ中心の総合的な実証的研究を提案する。
研究対象として10の主流VAを収集し,その運用特性を分析した。
次に、プライバシーラベル、ポリシー、マニフェストファイルを含む6つのソースで、プライバシー宣言を相互にチェックします。
さらに、(1)Alexaスキルのような統合されたミニアプリが不十分なメガアプリにおけるプライバシーの不正開示、(2)アプリケーション間インタラクションによる特権エスカレーション、(3)Googleのシステムアプリケーションの悪用により、アプリが危険な許可の宣言を避けることができる。
我々の研究は、実践者に対して実行可能なレコメンデーションを提供し、これらのプライバシーリスクを、新興の自律AIエージェントに幅広い関連性を示す。
関連論文リスト
- AgentDAM: Privacy Leakage Evaluation for Autonomous Web Agents [75.85554113398626]
我々は、AIウェブナビゲーションエージェントがデータ最小化のプライバシー原則に従うかどうかを測定する新しいベンチマークAgentDAMを紹介する。
我々のベンチマークは、現実的なWebインタラクションシナリオをエンドツーエンドでシミュレートし、既存のWebナビゲーションエージェントに適応する。
論文 参考訳(メタデータ) (2025-03-12T19:30:31Z) - Assessing Privacy Compliance of Android Third-Party SDKs [16.975384208528972]
サードパーティのソフトウェア開発キット(SDK)は、Androidアプリ開発で広く採用されている。
この利便性は、ユーザのプライバシに敏感な情報への不正アクセスに関するかなりの懸念を引き起こす。
当社の研究では,AndroidサードパーティSDK間のユーザプライバシ保護を対象とする分析を行っている。
論文 参考訳(メタデータ) (2024-09-16T15:44:43Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Evaluating the Security and Privacy Risk Postures of Virtual Assistants [3.1943453294492543]
Alexa、Braina、Cortana、Google Assistant、Kalliope、Mycroft、Hound、Extremeの8つの広く使われている音声アシスタントのセキュリティとプライバシーの姿勢を評価した。
その結果、これらのVAは様々なセキュリティ脅威に対して脆弱であることが判明した。
これらの脆弱性は、悪意のあるアクターがユーザーの個人情報を不正にアクセスできるようにする可能性がある。
論文 参考訳(メタデータ) (2023-12-22T12:10:52Z) - Security and Privacy Problems in Voice Assistant Applications: A Survey [10.10499765108625]
IoT(Internet of Things)の急速な発展に伴い,セキュリティとプライバシの脅威が浮上した。
調査されたセキュリティ問題には、機械学習モデルに対する攻撃テクニックや、ボイスアシスタントアプリケーションで広く使用されている他のハードウェアコンポーネントが含まれる。
本稿では,サイバーセキュリティと音声ドメインの上位層会議に掲載された論文の中で,5種類のセキュリティ攻撃と3種類のプライバシ脅威を結論し,評価する。
論文 参考訳(メタデータ) (2023-04-19T08:17:01Z) - An Empirical Study of AI Techniques in Mobile Applications [10.43634556488264]
私たちは、AIアプリケーションに関する最も広範な実証的研究を行い、デバイス上でのMLアプリ、デバイス上でのDLアプリ、そしてAIサービスをサポートする(クラウドベースの)アプリを調査しました。
私たちの研究は、AIアプリ開発者、ユーザ、AI R&Dに強く影響しています。
論文 参考訳(メタデータ) (2022-12-03T15:31:34Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Measuring the Effectiveness of Privacy Policies for Voice Assistant
Applications [12.150750035659383]
音声アプリ開発者が提供するプライバシポリシの有効性を体系的に測定する,最初の大規模データ分析を行う。
我々は、Amazon Alexaのスキル64,720、Google Assistantのアクション2,201を分析した。
われわれの調査では、メインストリームの2つの音声アプリストアでプライバシーポリシーの恐ろしい現実が明らかになった。
論文 参考訳(メタデータ) (2020-07-29T03:17:51Z) - Mind the GAP: Security & Privacy Risks of Contact Tracing Apps [75.7995398006171]
GoogleとAppleは共同で,Bluetooth Low Energyを使用した分散型コントラクトトレースアプリを実装するための公開通知APIを提供している。
実世界のシナリオでは、GAP設計は(i)プロファイリングに脆弱で、(ii)偽の連絡先を生成できるリレーベースのワームホール攻撃に弱いことを実証する。
論文 参考訳(メタデータ) (2020-06-10T16:05:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。