論文の概要: Balancing Usability and Compliance in AI Smart Devices: A Privacy-by-Design Audit of Google Home, Alexa, and Siri
- arxiv url: http://arxiv.org/abs/2601.04403v1
- Date: Wed, 07 Jan 2026 21:20:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.9314
- Title: Balancing Usability and Compliance in AI Smart Devices: A Privacy-by-Design Audit of Google Home, Alexa, and Siri
- Title(参考訳): AIスマートデバイスにおけるユーザビリティとコンプライアンスのバランス: Google Home、Alexa、Siriのプライバシバイ設計監査
- Authors: Trevor De Clark, Yulia Bobkova, Ajay Kumar Shrestha,
- Abstract要約: 本稿では,若者がよく使用するAI対応スマートデバイスのプライバシとユーザビリティについて検討する。
対象はGoogle Home Mini、Amazon Alexa、Apple Siriだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the privacy and usability of AI-enabled smart devices commonly used by youth, focusing on Google Home Mini, Amazon Alexa, and Apple Siri. While these devices provide convenience and efficiency, they also raise privacy and transparency concerns due to their always-listening design and complex data management processes. The study proposes and applies a combined framework of Heuristic Evaluation, Personal Information Protection and Electronic Documents Act (PIPEDA) Compliance Assessment, and Youth-Centered Usability Testing to assess whether these devices align with Privacy-by-Design principles and support meaningful user control. Results show that Google Home achieved the highest usability score, while Siri scored highest in regulatory compliance, indicating a trade-off between user convenience and privacy protection. Alexa demonstrated clearer task navigation but weaker transparency in data retention. Findings suggest that although youth may feel capable of managing their data, their privacy self-efficacy remains limited by technical design, complex settings, and unclear data policies. The paper concludes that enhancing transparency, embedding privacy guidance during onboarding, and improving policy alignment are critical steps toward ensuring that smart devices are both usable and compliant with privacy standards that protect young users.
- Abstract(参考訳): 本稿では,Google Home Mini,Amazon Alexa,Apple Siriを中心に,若者が一般的に使用しているAI対応スマートデバイスのプライバシとユーザビリティについて検討する。
これらのデバイスは利便性と効率性を提供するが、常にリストアップされる設計と複雑なデータ管理プロセスのために、プライバシーと透明性の懸念も引き起こす。
本研究は、これらのデバイスがプライバシ・バイ・デザインの原則に適合し、意味のあるユーザコントロールをサポートするかどうかを評価するために、ヒューリスティック・アセスメント、個人情報保護及び電子文書法(PIPEDA)コンプライアンス・アセスメント、青少年中心のユーザビリティテストの組み合わせフレームワークを提案し、適用する。
その結果、Google Homeは最高ユーザビリティスコアを達成し、Siriは最高規制コンプライアンスを達成し、ユーザーの利便性とプライバシー保護のトレードオフを示している。
Alexaはタスクナビゲーションの明確さを示したが、データ保持の透明性は弱かった。
若者が自分のデータを管理できると感じているかもしれないが、そのプライバシーの自己効力は、技術的な設計、複雑な設定、不明瞭なデータポリシーによって制限されている。
この論文は、透明性の向上、オンボーディング中のプライバシガイダンスの埋め込み、ポリシーアライメントの改善が、スマートデバイスが若いユーザーを保護するプライバシー標準に準拠することを保証するための重要なステップである、と結論付けている。
関連論文リスト
- Convenience vs. Control: A Qualitative Study of Youth Privacy with Smart Voice Assistants [0.0]
プライバシーリスク(PPR)と利益(PPBf)が,アルゴリズムの透明性と信頼(ATT)とプライバシの自己言語過負荷(PSE)とどのように交わるかを検討する。
我々の分析は、ポリシー、断片化された設定、不明瞭なデータ保持が自己効力感を損なうこと、および保護行動を妨げることを明らかにしている。
SVAの実用的な設計指針は、統一されたプライバシハブ、プレーンな"データ栄養"ラベル、明確な保持デフォルト、デバイス条件のマイクロチュートリアルなどである。
論文 参考訳(メタデータ) (2026-01-07T21:15:29Z) - Interdependent Privacy in Smart Homes: Hunting for Bystanders in Privacy Policies [0.8602553195689513]
本稿では,20個のビデオドアベルとスマートカメラ製品を対象としたプライバシーポリシーの分析を行った。
我々は、一部のベンダーが傍観者を認めているが、それらが対処するのは、不服従者を含める程度に限られていることを示した。
傍観者のプライバシに関連する現実のケースを特定し、調査し、現在のデプロイメントが非ユーザに与える影響を実証する。
論文 参考訳(メタデータ) (2025-10-30T14:16:21Z) - Covert Surveillance in Smart Devices: A SCOUR Framework Analysis of Youth Privacy Implications [0.0]
発見によると、スマートデバイスは、特に若者向けに作られたスマートおもちゃや音声で起動するスマートガジェットで、個人情報を隠蔽している。
これらの問題は、不明瞭なデータ収集のプラクティスと、スマートデバイスアプリケーションにおける透明性の欠如によって悪化している。
発見は、ポリシー開発と、スマートデバイスのデータ収集の透明性に重大な影響を及ぼす。
論文 参考訳(メタデータ) (2025-10-28T05:10:10Z) - Adversary-Aware Private Inference over Wireless Channels [51.93574339176914]
ワイヤレスエッジデバイスにおけるAIベースのセンシングは、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
機密性の高い個人情報は敵によって再構築できるため、プライバシー侵害のリスクを軽減するために特徴の変換が必要である。
本稿では,デバイスがモデルサーバに送信する前に抽出した特徴の変換を適用する,プライバシ保護型AIベースセンシングのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-23T13:02:14Z) - AI For Privacy in Smart Homes: Exploring How Leveraging AI-Powered Smart Devices Enhances Privacy Protection [7.958362435793087]
この研究は、AIを利用したツールがユーザーに対して明確でパーソナライズされ、コンテキストに応じたサポートを通じて、革新的なプライバシ保護を提供する方法について検討する。
我々の発見は、AI駆動のプライバシソリューションに対するユーザの願望を明らかにすることによって、この分野に寄与する。
論文 参考訳(メタデータ) (2025-09-17T14:53:58Z) - AgentDAM: Privacy Leakage Evaluation for Autonomous Web Agents [66.29263282311258]
我々は、AIウェブナビゲーションエージェントがデータ最小化のプライバシー原則に従うかどうかを測定する新しいベンチマークAgentDAMを紹介する。
我々のベンチマークは、現実的なWebインタラクションシナリオをエンドツーエンドでシミュレートし、既存のWebナビゲーションエージェントに適応する。
論文 参考訳(メタデータ) (2025-03-12T19:30:31Z) - Navigating AI to Unpack Youth Privacy Concerns: An In-Depth Exploration and Systematic Review [0.0]
この体系的な文献レビューは、人工知能(AI)システムにおけるプライバシーに関する若いデジタル市民の認識、関心、期待について調査する。
データ抽出は、プライバシの懸念、データ共有のプラクティス、プライバシとユーティリティのバランス、AIの信頼要因、個人データのユーザコントロールを強化する戦略に焦点を当てている。
発見は、個人情報のコントロールの欠如、AIによるデータの誤用の可能性、データ漏洩や不正アクセスの恐れなど、若いユーザーの間で重要なプライバシー上の懸念を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-12-20T22:00:06Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。