論文の概要: From Framework to Practice: Youth Negotiations of Privacy with Smart Voice Assistants Through the PEA-AI Lens
- arxiv url: http://arxiv.org/abs/2603.00081v1
- Date: Sat, 14 Feb 2026 03:03:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:45:20.221469
- Title: From Framework to Practice: Youth Negotiations of Privacy with Smart Voice Assistants Through the PEA-AI Lens
- Title(参考訳): フレームワークから実践へ - PEA-AIレンズによるスマート音声アシスタントによるプライバシーの青年交渉
- Authors: Molly Campbell, Yulia Bobkova, Ajay Kumar Shrestha,
- Abstract要約: 本研究では、AIフレームワークにおけるプライバシ-倫理アライメントを適用し、若者がSVA内のプライバシをどのように認識し、交渉するかを検討する。
プライバシリスク(PPR)、プライバシメリット(PPBf)、アルゴリズム透明性と信頼(ATT)、プライバシ自己効力(PSE)、プライバシ保護行動(PPB)の5つのプライバシ構造を測定した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Smart voice assistants (SVAs) have become embedded in the daily lives of youth, introducing complex privacy challenges due to always-on listening, shared device usage, and opaque data practices. This study applies the Privacy-Ethics Alignment in AI (PEA-AI) framework to examine how youth perceive and negotiate privacy within SVAs. Through a survey of 469 Canadian youth (aged 16-24), we measured five privacy constructs: Perceived Privacy Risk (PPR), Perceived Privacy Benefits (PPBf), Algorithmic Transparency and Trust (ATT), Privacy Self-Efficacy (PSE), and Privacy-Protective Behavior (PPB). Results reveal a persistent privacy paradox. While youth express moderate to high privacy concerns (PPR M = 3.61), perceived benefits (PPBf M = 3.00) and protective actions (PPB M = 3.03) remain moderate, with transparency and trust scoring lowest (ATT M = 2.52). Heavy SVA users report higher benefits and lower risk perception than light users. High protective behavior is strongly associated with both high risk perception and high self-efficacy. Qualitative insights from prior focus groups contextualize these patterns, illustrating how youth navigate tensions between convenience, control, and trust. The findings provide actionable design principles for SVA along with implications for multi-stakeholder governance and youth-centered digital literacy.
- Abstract(参考訳): スマート音声アシスタント(SVA)は若者の日常生活に組み込まれており、常時オンのリスニング、デバイス使用の共有、不透明なデータプラクティスによる複雑なプライバシー問題を導入している。
本研究では、AIにおけるプライバシ-倫理調整(PEA-AI)フレームワークを適用し、若者がSVA内のプライバシをどう認識し、交渉するかを検討する。
カナダの若者469名(年齢16~24歳)を対象に,プライバシ・リスク(PPR),プライバシ・ベネフィット(PPBf),アルゴリズム・トランスペアレンシー・アンド・トラスト(ATT),プライバシ・自己効力(PSE),プライバシ・プロテクティブ・ビヘイビア(PPB)の5つのプライバシ構造を測定した。
結果は、永続的なプライバシーパラドックスを明らかにします。
若年者は高いプライバシー上の懸念(PPR M = 3.61)を軽度に表現するが、知覚的利益(PPBf M = 3.00)と保護的行動(PPB M = 3.03)は、透明性と信頼が低い(ATT M = 2.52)。
重いSVAユーザは、軽いユーザよりも高いメリットとリスク認識を報告します。
高い保護行動は、高いリスク知覚と高い自己効力の両方に強く結びついている。
先行フォーカスグループからの質的な洞察は、これらのパターンを文脈化し、若者が利便性、コントロール、信頼の間の緊張をいかにナビゲートするかを説明する。
本研究は,SVAの実践的設計原則と,若年者中心のデジタルリテラシーの意義について考察した。
関連論文リスト
- Contextualized Privacy Defense for LLM Agents [84.30907378390512]
LLMエージェントはますますユーザーの個人情報に作用するが、既存のプライバシー保護は設計と適応性の両方において制限されている。
我々は,新たなプライバシ防衛パラダイムであるCDI(Contextualized Defense Instructing)を提案する。
我々のCDIは、ベースラインよりもプライバシー保護(94.2%)と有用性(80.6%)のバランスが良好であることを示します。
論文 参考訳(メタデータ) (2026-03-03T13:35:33Z) - Privacy by Voice: Modeling Youth Privacy-Protective Behavior in Smart Voice Assistants [0.0]
本研究は、カナダ人の若者がスマート音声アシスタント(SVA)とプライバシーを交渉する方法について検討する。
プライバシリスク(PPR)、知覚的メリット(PPBf)、アルゴリズム的透明性と信頼(ATT)、プライバシ自己効力(PSE)、プライバシ保護行動(PPB)という5つの重要な構造モデルを開発し、テストする。
論文 参考訳(メタデータ) (2026-02-09T05:56:51Z) - Your Privacy Depends on Others: Collusion Vulnerabilities in Individual Differential Privacy [50.66105844449181]
個々の差別的プライバシ(iDP)は、ユーザが自身のプライバシをコントロールすることを約束するが、この約束は実際には破られる可能性がある。
我々は、サンプリングベースのiDPメカニズムにおいて、これまで見過ごされていた脆弱性を明らかにした。
我々は、$(varepsilon_i,_i,overline)$-iDPというプライバシー契約を提案します。
論文 参考訳(メタデータ) (2026-01-19T10:26:12Z) - Balancing Usability and Compliance in AI Smart Devices: A Privacy-by-Design Audit of Google Home, Alexa, and Siri [0.0]
本稿では,若者がよく使用するAI対応スマートデバイスのプライバシとユーザビリティについて検討する。
対象はGoogle Home Mini、Amazon Alexa、Apple Siriだ。
論文 参考訳(メタデータ) (2026-01-07T21:20:58Z) - Convenience vs. Control: A Qualitative Study of Youth Privacy with Smart Voice Assistants [0.0]
プライバシーリスク(PPR)と利益(PPBf)が,アルゴリズムの透明性と信頼(ATT)とプライバシの自己言語過負荷(PSE)とどのように交わるかを検討する。
我々の分析は、ポリシー、断片化された設定、不明瞭なデータ保持が自己効力感を損なうこと、および保護行動を妨げることを明らかにしている。
SVAの実用的な設計指針は、統一されたプライバシハブ、プレーンな"データ栄養"ラベル、明確な保持デフォルト、デバイス条件のマイクロチュートリアルなどである。
論文 参考訳(メタデータ) (2026-01-07T21:15:29Z) - Who Can See Through You? Adversarial Shielding Against VLM-Based Attribute Inference Attacks [13.326888254423901]
VLMベースの属性推論攻撃は、ソーシャルメディア上で共有された画像から、敵対者が個人属性を推測できるようにする、深刻なプライバシー上の懸念として浮上している。
本稿では,視覚的制約下でのプライバシー抑制とユーティリティ保護を協調的に最適化する新しい保護手法を提案する。
提案手法は, PARを25%以下に効果的に削減し, NPARを88%以上に抑えるとともに, 未確認・言い換えのプライバシー問題に対してよく一般化する。
論文 参考訳(メタデータ) (2025-12-20T08:08:50Z) - MAGPIE: A benchmark for Multi-AGent contextual PrIvacy Evaluation [61.92403071137653]
既存のプライバシベンチマークは、タスクの結果に影響を与えることなく、プライベート情報を簡単に省略できる、単純化されたシングルターンインタラクションにのみフォーカスする。
我々は,多エージェント協調型非競合シナリオにおけるプライバシ理解と保存性を評価するための新しいベンチマークであるMAGPIEを紹介する。
評価の結果,GPT-5やGemini 2.5-Proを含む最先端のエージェントは,重大なプライバシー侵害を示すことが明らかとなった。
論文 参考訳(メタデータ) (2025-10-16T23:12:12Z) - Privacy Leakage Overshadowed by Views of AI: A Study on Human Oversight of Privacy in Language Model Agent [3.89966779727297]
個人のタスクを代行する言語モデル(LM)エージェントは生産性を向上するが、意図しないプライバシー漏洩のリスクも受けやすい。
本研究は、LMエージェントのプライバシ含意を監督する人々の能力に関する最初の研究である。
論文 参考訳(メタデータ) (2024-11-02T19:15:42Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。