論文の概要: PrivacyMotiv: Speculative Persona Journeys for Empathic and Motivating Privacy Reviews in UX Design
- arxiv url: http://arxiv.org/abs/2510.03559v1
- Date: Fri, 03 Oct 2025 23:14:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.113739
- Title: PrivacyMotiv: Speculative Persona Journeys for Empathic and Motivating Privacy Reviews in UX Design
- Title(参考訳): PrivacyMotiv:UX設計におけるプライバシレビューの共感と動機付けのための投機的なペルソナジャーニー
- Authors: Zeya Chen, Jianing Wen, Ruth Schmidt, Yaxing Yao, Toby Jia-Jun Li, Tianshi Li,
- Abstract要約: プライバシMotivは、プライバシのリスクに弱い個人を中心としたUXユーザジャーニーを備えた投機的なペルソナを生成する。
専門的なUX実践者を対象にした研究では,共感,本質的な動機づけ,有用性に対する認識の大幅な改善が示された。
この研究は、プライバシーを意識したUXのモチベーション障壁に対処する、有望なプライバシレビューアプローチに寄与する。
- 参考スコア(独自算出の注目度): 21.44559961372506
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: UX professionals routinely conduct design reviews, yet privacy concerns are often overlooked -- not only due to limited tools, but more critically because of low intrinsic motivation. Limited privacy knowledge, weak empathy for unexpectedly affected users, and low confidence in identifying harms make it difficult to address risks. We present PrivacyMotiv, an LLM-powered system that supports privacy-oriented design diagnosis by generating speculative personas with UX user journeys centered on individuals vulnerable to privacy risks. Drawing on narrative strategies, the system constructs relatable and attention-drawing scenarios that show how ordinary design choices may cause unintended harms, expanding the scope of privacy reflection in UX. In a within-subjects study with professional UX practitioners (N=16), we compared participants' self-proposed methods with PrivacyMotiv across two privacy review tasks. Results show significant improvements in empathy, intrinsic motivation, and perceived usefulness. This work contributes a promising privacy review approach which addresses the motivational barriers in privacy-aware UX.
- Abstract(参考訳): UXの専門家は定期的に設計レビューを行うが、プライバシに関する懸念は見過ごされることが多い。
プライバシーに関する知識の制限、予期せぬ影響を受けたユーザの共感の弱さ、害の特定に対する信頼の低さは、リスクへの対処を困難にしている。
プライバシリスクに弱い個人を対象とするUXユーザジャーニーを備えた投機的ペルソナを生成することで,プライバシ指向の設計診断を支援するLLMベースのシステムであるPrivacyMotivを提案する。
ナラティブ戦略に基づいて、システムは、通常の設計選択が意図しない害を引き起こす可能性があることを示し、UXにおけるプライバシリフレクションの範囲を広げる、相対的かつ注意を引くシナリオを構築する。
専門的なUX実践者(N=16)を対象に,2つのプライバシレビュータスクにおいて,参加者の自己提案手法とPrivacyMotivを比較した。
その結果,共感,本質的動機,有用性に有意な改善が認められた。
この研究は、プライバシーを意識したUXのモチベーション障壁に対処する、有望なプライバシレビューアプローチに寄与する。
関連論文リスト
- Privy: Envisioning and Mitigating Privacy Risks for Consumer-facing AI Product Concepts [15.368491131846461]
AIはプライバシーのリスクを創造し、悪化させるが、実践者はこれらのリスクを特定し、緩和するための効果的なリソースを欠いている。
私たちはPrivを紹介します。Privは、構造化されたプライバシー影響評価を通じて実践者をガイドするツールです。
論文 参考訳(メタデータ) (2025-09-27T23:08:24Z) - Protecting Users From Themselves: Safeguarding Contextual Privacy in Interactions with Conversational Agents [33.26308626066122]
会話エージェント(LCA)とのユーザインタラクションにおけるコンテキストプライバシの概念を特徴付ける。
これは、ユーザーが意図した目標を達成するのに必要な情報のみを(ベンダー)が開示することを保証することで、プライバシー上のリスクを最小限にすることを目的としている。
本稿では,ユーザとLCA間のローカルデプロイ可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-22T09:05:39Z) - Privacy Leakage Overshadowed by Views of AI: A Study on Human Oversight of Privacy in Language Model Agent [3.89966779727297]
個人のタスクを代行する言語モデル(LM)エージェントは生産性を向上するが、意図しないプライバシー漏洩のリスクも受けやすい。
本研究は、LMエージェントのプライバシ含意を監督する人々の能力に関する最初の研究である。
論文 参考訳(メタデータ) (2024-11-02T19:15:42Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Privacy Intelligence: A Survey on Image Privacy in Online Social Networks [20.778221889102866]
人気のOSNサービスによる最近の画像リークと個人写真の乱用は、OSN画像共有における個人のプライバシーの必要性を再考するきっかけとなった。
プライバシーに配慮したOSNイメージ共有のための、よりインテリジェントな環境が求められている。
我々はOSN画像のプライバシーの定義と分類、OSN画像共有のライフサイクルに基づいた高レベルのプライバシー分析フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-27T15:52:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。