論文の概要: Privacy Cards for Surfacing Mental Models and Exploring Privacy Concerns: A Case Study of Voice-First Ambient Interfaces with Older Adults
- arxiv url: http://arxiv.org/abs/2603.00384v1
- Date: Fri, 27 Feb 2026 23:53:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 12:51:02.27581
- Title: Privacy Cards for Surfacing Mental Models and Exploring Privacy Concerns: A Case Study of Voice-First Ambient Interfaces with Older Adults
- Title(参考訳): 対面精神モデルのためのプライバシカードとプライバシに関する考察 : 高齢者の音声ファーストインタフェースを事例として
- Authors: Andrea Cuadra, Samar Sabie, Yan Shvartzshnaider, Deborah Estrin,
- Abstract要約: 高齢者5人との密接な交流を通じて,音声ファースト環境インタフェース(VFAI)の加齢に対する倫理的・プライバシー的影響について検討した。
プライバシカードを使用して、インタビューを行い、メンタルモデルを探索し、プライバシに関する懸念を調査します。
例えば、参加者は誰がデータにアクセスできるかを知らなかった。
- 参考スコア(独自算出の注目度): 7.48399091949275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the ethical and privacy implications of voice-first ambient interfaces (VFAIs) for aging in place through an in-depth engagement with five older adults. Our participants were in the process of becoming experienced VFAI users, and had used a VFAI-based design probe for health data reporting. We create and iteratively refine an interview protocol using Privacy Cards. We customize Privacy Cards by drawing on participants' previous interviews and device usage logs. Using Privacy Cards, we conduct interviews to surface their mental models, and explore their privacy concerns. We find insufficient mental models for proper consent. For example, participants did not know who could access their data, and experienced difficulty distinguishing built-in functionality from third-party apps. Participants initially expressed little worry about VFAI-related ethical concerns, but interviews with Privacy Cards revealed nuanced issues, resulting in various implications for future research and design.
- Abstract(参考訳): 高齢者5人との密接な交流を通じて,音声ファースト環境インタフェース(VFAI)の加齢に対する倫理的・プライバシー的影響について検討した。
参加者は、経験豊富なVFAIユーザになる過程にあり、健康データレポートにVFAIベースのデザインプローブを使用していました。
プライバシカードを使用してインタビュープロトコルを反復的に作成・洗練する。
参加者の以前のインタビューやデバイス使用状況のログを描画することで、プライバシカードをカスタマイズします。
プライバシカードを使用して、インタビューを行い、メンタルモデルを探索し、プライバシに関する懸念を調査します。
適切な同意を得るためには、精神モデルが不十分です。
例えば、参加者は誰がデータにアクセスできるかを知らなかった。
参加者は当初、VFAIに関連する倫理的懸念についてほとんど関心を示しなかったが、プライバシカードへのインタビューは問題を明らかにし、将来の研究や設計に様々な影響を及ぼした。
関連論文リスト
- "I need to learn better searching tactics for privacy policy laws.'' Investigating Software Developers' Behavior When Using Sources on Privacy Issues [8.662963983664223]
本研究は,プライバシ関連の開発タスクに対する既存のサポートにおいて,大きな欠点を浮き彫りにしている。
当社の調査結果に基づいて、開発者がよりアクセスしやすく、理解しやすく、行動可能なプライバシーリソースの必要性について論じる。
論文 参考訳(メタデータ) (2025-11-11T09:58:06Z) - PersonaBench: Evaluating AI Models on Understanding Personal Information through Accessing (Synthetic) Private User Data [76.21047984886273]
パーソナライゼーションは、AIアシスタント、特に個々のユーザーと連携するプライベートAIモデルのコンテキストにおいて重要である。
このようなデータのセンシティブな性質のため、AIモデルのユーザ理解能力を評価するためのデータセットは公開されていない。
多様なユーザプロファイルを作成する合成データ生成パイプラインと、人間の活動をシミュレートするプライベートドキュメントを導入する。
論文 参考訳(メタデータ) (2025-02-28T00:43:35Z) - Smoke Screens and Scapegoats: The Reality of General Data Protection Regulation Compliance -- Privacy and Ethics in the Case of Replika AI [1.325665193924634]
本稿では,AIコンパニオンサービスにおけるこれらの課題の複雑さを検討するために,批判的なアプローチをとる。
当社は、企業とその実践に関するメディアの記事を分析し、ポリシーで提供された情報の信頼性に関する洞察を得る。
その結果、プライバシーの通知にもかかわらず、データ収集のプラクティスはユーザーの完全な認識なしに個人データを収集する可能性があることが判明した。
論文 参考訳(メタデータ) (2024-11-07T07:36:19Z) - Privacy Checklist: Privacy Violation Detection Grounding on Contextual Integrity Theory [43.12744258781724]
単純なパターンマッチングではなく、推論問題としてプライバシー問題を定式化します。
我々は、社会的アイデンティティ、プライベート属性、および既存のプライバシー規則を網羅する、最初の包括的なチェックリストを開発する。
論文 参考訳(メタデータ) (2024-08-19T14:48:04Z) - NAP^2: A Benchmark for Naturalness and Privacy-Preserving Text Rewriting by Learning from Human [56.46355425175232]
我々は,人間によって使用される2つの共通戦略を用いて,機密テキストの衛生化を提案する。
我々は,クラウドソーシングと大規模言語モデルの利用を通じて,NAP2という最初のコーパスをキュレートする。
匿名化に関する以前の研究と比較すると、人間に触発されたアプローチはより自然な書き直しをもたらす。
論文 参考訳(メタデータ) (2024-06-06T05:07:44Z) - Embedding Privacy in Computational Social Science and Artificial Intelligence Research [2.048226951354646]
プライバシーの保護は研究の重要な要素として浮上している。
高度な計算モデルの利用の増加は、プライバシーの懸念を悪化させる。
この記事では、プライバシの役割と、CSS、AI、データサイエンス、および関連するドメインで働く研究者が直面する問題について議論することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-17T16:07:53Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - User Perception of Privacy with Ubiquitous Devices [5.33024001730262]
本研究は,ユビキタステクノロジーの時代におけるプライバシの認識に関する様々な懸念を探求し,発見することを目的としている。
公共やプライベートスペースにおけるプライバシーに対する態度、プライバシーの意識、同意を求めること、様々な技術に関連するジレンマ/コンフュージョン、公共やプライベートスペースにおけるプライバシーの侵害から身を守る方法に関する個人行動に対する態度と信念の影響など、主要なテーマである。
論文 参考訳(メタデータ) (2021-07-23T05:01:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。