論文の概要: Convenience vs. Control: A Qualitative Study of Youth Privacy with Smart Voice Assistants
- arxiv url: http://arxiv.org/abs/2601.04399v1
- Date: Wed, 07 Jan 2026 21:15:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.926925
- Title: Convenience vs. Control: A Qualitative Study of Youth Privacy with Smart Voice Assistants
- Title(参考訳): Convenience vs. Control: スマート音声アシスタントを用いた若者プライバシの質的研究
- Authors: Molly Campbell, Trevor De Clark, Mohamad Sheikho Al Jasem, Sandhya Joshi, Ajay Kumar Shrestha,
- Abstract要約: プライバシーリスク(PPR)と利益(PPBf)が,アルゴリズムの透明性と信頼(ATT)とプライバシの自己言語過負荷(PSE)とどのように交わるかを検討する。
我々の分析は、ポリシー、断片化された設定、不明瞭なデータ保持が自己効力感を損なうこと、および保護行動を妨げることを明らかにしている。
SVAの実用的な設計指針は、統一されたプライバシハブ、プレーンな"データ栄養"ラベル、明確な保持デフォルト、デバイス条件のマイクロチュートリアルなどである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Smart voice assistants (SVAs) are embedded in the daily lives of youth, yet their privacy controls often remain opaque and difficult to manage. Through five semi-structured focus groups (N=26) with young Canadians (ages 16-24), we investigate how perceived privacy risks (PPR) and benefits (PPBf) intersect with algorithmic transparency and trust (ATT) and privacy self-efficacy (PSE) to shape privacy-protective behaviors (PPB). Our analysis reveals that policy overload, fragmented settings, and unclear data retention undermine self-efficacy and discourage protective actions. Conversely, simple transparency cues were associated with greater confidence without diminishing the utility of hands-free tasks and entertainment. We synthesize these findings into a qualitative model in which transparency friction erodes PSE, which in turn weakens PPB. From this model, we derive actionable design guidance for SVAs, including a unified privacy hub, plain-language "data nutrition" labels, clear retention defaults, and device-conditional micro-tutorials. This work foregrounds youth perspectives and offers a path for SVA governance and design that empowers young digital citizens while preserving convenience.
- Abstract(参考訳): スマート音声アシスタント(SVA)は若者の日常生活に埋め込まれているが、プライバシー管理は不透明で管理が難しいことが多い。
若年カナダ人(年齢16~24歳)による5つの半構造化フォーカスグループ(N=26歳)を通じて、プライバシー保護行動(PPB)を形成するために、プライバシーリスク(PPR)と利益(PPBf)がアルゴリズム的透明性と信頼(ATT)とプライバシ自己効力(PSE)とどのように交わるかを検討する。
分析の結果,政策過負荷,断片化設定,不確実なデータ保持が自己効力感を損なうこと,保護行動の妨げとなることが明らかとなった。
逆に、単純な透明性の手段は、ハンズフリーのタスクやエンターテイメントの有用性を損なうことなく、より大きな信頼と結びついた。
我々はこれらの知見を,透明摩擦がPSEを侵食する定性的モデルに合成し,PPBを弱める。
このモデルから,統一プライバシハブ,プレーンな"データ栄養"ラベル,クリアリテンションデフォルト,デバイスコンディショナリマイクロチューニングなど,SVAの実用的な設計指針を導出する。
この研究は若者の視点を予見し、SVAのガバナンスと設計の道を提供し、利便性を維持しながら、若いデジタル市民に力を与える。
関連論文リスト
- Balancing Usability and Compliance in AI Smart Devices: A Privacy-by-Design Audit of Google Home, Alexa, and Siri [0.0]
本稿では,若者がよく使用するAI対応スマートデバイスのプライバシとユーザビリティについて検討する。
対象はGoogle Home Mini、Amazon Alexa、Apple Siriだ。
論文 参考訳(メタデータ) (2026-01-07T21:20:58Z) - Who Can See Through You? Adversarial Shielding Against VLM-Based Attribute Inference Attacks [13.326888254423901]
VLMベースの属性推論攻撃は、ソーシャルメディア上で共有された画像から、敵対者が個人属性を推測できるようにする、深刻なプライバシー上の懸念として浮上している。
本稿では,視覚的制約下でのプライバシー抑制とユーティリティ保護を協調的に最適化する新しい保護手法を提案する。
提案手法は, PARを25%以下に効果的に削減し, NPARを88%以上に抑えるとともに, 未確認・言い換えのプライバシー問題に対してよく一般化する。
論文 参考訳(メタデータ) (2025-12-20T08:08:50Z) - MAGPIE: A benchmark for Multi-AGent contextual PrIvacy Evaluation [61.92403071137653]
既存のプライバシベンチマークは、タスクの結果に影響を与えることなく、プライベート情報を簡単に省略できる、単純化されたシングルターンインタラクションにのみフォーカスする。
我々は,多エージェント協調型非競合シナリオにおけるプライバシ理解と保存性を評価するための新しいベンチマークであるMAGPIEを紹介する。
評価の結果,GPT-5やGemini 2.5-Proを含む最先端のエージェントは,重大なプライバシー侵害を示すことが明らかとなった。
論文 参考訳(メタデータ) (2025-10-16T23:12:12Z) - VoxGuard: Evaluating User and Attribute Privacy in Speech via Membership Inference Attacks [51.68795949691009]
差分プライバシとメンバシップ推論に基づくフレームワークであるVoxGuardを紹介した。
属性については, 匿名化後も, 性別やアクセントをほぼ完全精度で再現できることが示唆された。
以上の結果から,EERはリークを著しく過小評価し,低FPR評価の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-09-22T20:57:48Z) - Ethical AI for Young Digital Citizens: A Call to Action on Privacy Governance [0.0]
若者が利用するデジタルプラットフォームにおける人工知能の急速な拡張は、プライバシ、自律性、データ保護に関する大きな課題を生み出している。
AI駆動のパーソナライゼーションは、ユーザエクスペリエンスの向上を提供するが、しばしば明確な倫理的境界なしに動作し、若いユーザはデータエクスプロイトやアルゴリズム上のバイアスに弱いままである。
本稿では、青少年中心のプライバシ保護、透過的なデータプラクティス、規制監督を保証する構造化されたフレームワークを提唱する。
論文 参考訳(メタデータ) (2025-03-15T01:35:56Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。