論文の概要: Privacy by Voice: Modeling Youth Privacy-Protective Behavior in Smart Voice Assistants
- arxiv url: http://arxiv.org/abs/2602.10142v1
- Date: Mon, 09 Feb 2026 05:56:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.171449
- Title: Privacy by Voice: Modeling Youth Privacy-Protective Behavior in Smart Voice Assistants
- Title(参考訳): 音声によるプライバシ:スマート音声アシスタントにおける青年のプライバシ保護行動のモデル化
- Authors: Molly Campbell, Ajay Kumar Shrestha,
- Abstract要約: 本研究は、カナダ人の若者がスマート音声アシスタント(SVA)とプライバシーを交渉する方法について検討する。
プライバシリスク(PPR)、知覚的メリット(PPBf)、アルゴリズム的透明性と信頼(ATT)、プライバシ自己効力(PSE)、プライバシ保護行動(PPB)という5つの重要な構造モデルを開発し、テストする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Smart Voice Assistants (SVAs) are deeply embedded in the lives of youth, yet the mechanisms driving the privacy-protective behaviors among young users remain poorly understood. This study investigates how Canadian youth (aged 16-24) negotiate privacy with SVAs by developing and testing a structural model grounded in five key constructs: perceived privacy risks (PPR), perceived benefits (PPBf), algorithmic transparency and trust (ATT), privacy self-efficacy (PSE), and privacy-protective behaviors (PPB). A cross-sectional survey of N=469 youth was analyzed using partial least squares structural equation modeling. Results reveal that PSE is the strongest predictor of PPB, while the effect of ATT on PPB is fully mediated by PSE. This identifies a critical efficacy gap, where youth's confidence must first be built up for them to act. The model confirms that PPBf directly discourages protective action, yet also indirectly fosters it by slightly boosting self-efficacy. These findings empirically validate and extend earlier qualitative work, quantifying how policy overload and hidden controls erode the self-efficacy necessary for protective action. This study contributes an evidence-based pathway from perception to action and translates it into design imperatives that empower young digital citizens without sacrificing the utility of SVAs.
- Abstract(参考訳): スマートボイスアシスタント(SVA)は若者の生活に深く浸透しているが、若いユーザーのプライバシー保護行動を促進するメカニズムは理解されていない。
カナダ人の若者(16~24歳)が、プライバシリスク(PPR)、知覚的利益(PPBf)、アルゴリズム的透明性と信頼(ATT)、プライバシ自己効力(PSE)、プライバシ保護行動(PPB)という5つの重要な構成要素に根ざした構造モデルを開発し、SVAとプライバシーを交渉する方法について検討した。
部分最小2乗構造方程式モデルを用いて,N=469青年の断面調査を行った。
その結果, PSE は PPB の最も強い予測因子であり, PPB に対するATT の効果は PSE が完全に介在していることが判明した。
これは、若者が行動するためには、まず青少年の自信を築かなければならない重要な有効性ギャップを識別する。
PPBfは保護作用を直接阻害するが、自己効力を高めることで間接的に促進する。
これらの知見は、初期定性的作業の実証的検証と拡張を行い、政策過負荷と隠蔽制御が保護行動に必要な自己効力を損なうかを定量化した。
本研究は,SVAの実用性を犠牲にすることなく,若者のデジタル市民に力を与えるデザインインペラティブとして,行動に対する認識から行動へのエビデンスに基づく経路に寄与する。
関連論文リスト
- Convenience vs. Control: A Qualitative Study of Youth Privacy with Smart Voice Assistants [0.0]
プライバシーリスク(PPR)と利益(PPBf)が,アルゴリズムの透明性と信頼(ATT)とプライバシの自己言語過負荷(PSE)とどのように交わるかを検討する。
我々の分析は、ポリシー、断片化された設定、不明瞭なデータ保持が自己効力感を損なうこと、および保護行動を妨げることを明らかにしている。
SVAの実用的な設計指針は、統一されたプライバシハブ、プレーンな"データ栄養"ラベル、明確な保持デフォルト、デバイス条件のマイクロチュートリアルなどである。
論文 参考訳(メタデータ) (2026-01-07T21:15:29Z) - SA-ADP: Sensitivity-Aware Adaptive Differential Privacy for Large Language Models [0.5156484100374058]
個別のPIIの感度に基づいてノイズを割り当てる感度認識手法であるSA-ADPを提案する。
その結果,SA-ADPはベースライン(No-DP)と従来のDP-SGDに匹敵する結果を示した。
論文 参考訳(メタデータ) (2025-12-01T14:50:59Z) - VoxGuard: Evaluating User and Attribute Privacy in Speech via Membership Inference Attacks [51.68795949691009]
差分プライバシとメンバシップ推論に基づくフレームワークであるVoxGuardを紹介した。
属性については, 匿名化後も, 性別やアクセントをほぼ完全精度で再現できることが示唆された。
以上の結果から,EERはリークを著しく過小評価し,低FPR評価の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-09-22T20:57:48Z) - Proactive Privacy Amnesia for Large Language Models: Safeguarding PII with Negligible Impact on Model Utility [39.51362903320998]
我々は,大規模言語モデル(LLM)におけるPIIを保護するために,プロアクティブプライバシ・アムネシア(Proactive Privacy Amnesia)を提案する。
このメカニズムは、シークエンスでPIIと最も密接な関係にあるキーメモリを積極的に識別し、忘れ、LLMの機能を維持するためにメモリを埋め込むことによって機能する。
その結果, PPA法は, 電話番号暴露のリスクを100%削減し, 9.8%~87.6%の物理アドレス暴露のリスクを著しく低減することがわかった。
論文 参考訳(メタデータ) (2025-02-24T19:16:39Z) - Investigation of the Privacy Concerns in AI Systems for Young Digital Citizens: A Comparative Stakeholder Analysis [0.0]
この研究は、ユーザー中心のプライバシーコントロール、カスタマイズされた透明性戦略、ターゲットとする教育イニシアチブの必要性を強調している。
多様な利害関係者の視点を取り入れることで、倫理的AI設計とガバナンスに関する実用的な洞察が得られる。
論文 参考訳(メタデータ) (2025-01-23T02:07:45Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Locally Differentially Private Document Generation Using Zero Shot
Prompting [61.20953109732442]
本稿では,DP-Prompt と呼ばれる局所的に異なるプライベートなメカニズムを提案し,作者の匿名化攻撃に対処する。
DP-PromptをChatGPT(gpt-3.5)のような強力な言語モデルで使用すると、匿名化攻撃の成功率の顕著な低下が観察される。
論文 参考訳(メタデータ) (2023-10-24T18:25:13Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。