論文の概要: Is Downloading this App Consistent with my Values? Conceptualizing a
Value-Centered Privacy Assistant
- arxiv url: http://arxiv.org/abs/2106.12458v2
- Date: Wed, 25 Aug 2021 11:26:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 18:30:32.932111
- Title: Is Downloading this App Consistent with my Values? Conceptualizing a
Value-Centered Privacy Assistant
- Title(参考訳): このアプリのダウンロードは私の価値と一致しているか?
価値中心型プライバシアシスタントの概念化
- Authors: Sarah E. Carter
- Abstract要約: データプライバシの決定は、ユーザ値の表現として理解できる、と提案する。
さらに,価値中心型プライバシアシスタント(VcPA)の開発を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Digital privacy notices aim to provide users with information to make
informed decisions. They are, however, fraught with difficulties. Instead, I
propose that data privacy decisions can be understood as an expression of user
values. To optimize this value expression, I further propose the creation of a
value-centered privacy assistant (VcPA). Here, I preliminary explore how a VcPA
could enhance user value expression by utilizing three user scenarios in the
context of considering whether or not to download an environmental application,
the OpenLitterMap app. These scenarios are conceptually constructed from
established privacy user groups - the privacy fundamentalists; the privacy
pragmatists; and the privacy unconcerned. I conclude that the VcPA best
facilitates user value expression of the privacy fundamentalists. In contrast,
the value expression of the privacy pragmatists and the privacy unconcerned
could be enhanced or hindered depending on the context and their internal
states. Possible implications for optimal VcPA design are also discussed.
Following this initial conceptual exploration of VcPAs, further empirical
research will be required to demonstrate the effectiveness of the VcPA system
in real-world settings.
- Abstract(参考訳): デジタルプライバシー通知(digital privacy notices)は、ユーザにインフォームドな意思決定情報を提供することを目的としている。
しかし、それらは困難に満ちている。
代わりに、データプライバシの決定は、ユーザ値の表現として理解できると提案する。
この値表現を最適化するために、我々はさらに価値中心のプライバシアシスタント(VcPA)の作成を提案する。
ここでは,VcPAが3つのユーザシナリオを利用して,環境アプリケーションであるOpenLitterMapをダウンロードするかどうかを検討することで,ユーザ価値の表現を向上する方法について予備検討する。
これらのシナリオは、確立されたプライバシ・ユーザグループ(プライバシ・ファンダリスト、プライバシ・プラグマティスト、プライバシ・アンコンサート)から概念的に構築されます。
VcPAは、プライバシー原理主義者のユーザ価値表現を最も促進します。
対照的に、プライバシ・プラグマティストと無意識なプライバシの表現は、コンテキストや内部状態によって強化または妨げられる可能性がある。
また, 最適VcPA設計の可能性についても論じる。
VcPAの初期の概念的な探索に続いて、実世界の環境でのVcPAシステムの有効性を実証するためには、さらなる実証研究が必要である。
関連論文リスト
- Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - {A New Hope}: Contextual Privacy Policies for Mobile Applications and An
Approach Toward Automated Generation [19.578130824867596]
コンテキストプライバシポリシ(CPP)の目的は、プライバシポリシを簡潔なスニペットに断片化し、アプリケーションのグラフィカルユーザインターフェース(GUI)内の対応するコンテキスト内でのみ表示することである。
本稿では,モバイルアプリケーションシナリオでCPPを初めて定式化し,モバイルアプリケーション用のCPPを自動生成するSeePrivacyという新しいマルチモーダルフレームワークを提案する。
人間の評価では、抽出されたプライバシーポリシーセグメントの77%が、検出されたコンテキストと適切に一致していると認識されている。
論文 参考訳(メタデータ) (2024-02-22T13:32:33Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - The Privacy-Value-App Relationship and the Value-Centered Privacy
Assistant [3.885316081594592]
私たちは、私たちの価値観、プライバシの好み、アプリ選択との関係をよりよく理解することを目指しています。
スマートフォン価値中心のプライバシアシスタント(VcPA)が,価値中心のアプリ選択を促進する効果について検討する。
論文 参考訳(メタデータ) (2023-08-10T17:04:12Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - A Value-Centered Exploration of Data Privacy and Personalized Privacy
Assistants [0.0]
インフォームドコンセントを活用する代わりに、より価値中心のユーザー決定のためのスペースを作るように提案します。
私は、価値中心のプライバシー決定を運用するために、Suzy Killmister氏の4次元の自律性理論を利用しています。
論文 参考訳(メタデータ) (2022-12-01T14:26:33Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Leveraging Privacy Profiles to Empower Users in the Digital Society [7.350403786094707]
市民のプライバシーと倫理は、ますますデジタル化されつつある社会によってもたらされる懸念の中核にある。
我々は、フィットネス領域から収集された既存のデータセットに関する実証的研究を通じて、プライバシの次元に注目し、上記の方向のステップに貢献する。
その結果、セマンティック駆動型質問のコンパクトなセットは、複雑なドメイン依存質問よりもユーザを識別するのに役立つことがわかった。
論文 参考訳(メタデータ) (2022-04-01T15:31:50Z) - Fighting the Fog: Evaluating the Clarity of Privacy Disclosures in the
Age of CCPA [29.56312492076473]
プライバシーポリシーの曖昧さと曖昧さは、企業が個人情報を収集、利用、共有する方法に関して、消費者が情報的な選択をすることができることを脅かす。
2018年のカリフォルニア州消費者プライバシ法(CCPA)は、企業がデータプラクティスを明確に開示することを義務付けることで、カリフォルニア州の消費者によりコントロールを提供することを目的としている。
我々の結果は、CCPAのプライバシー開示義務が、現在実施されているように、提供予定の明確さのレベルをまだ達成していないことを示唆している。
論文 参考訳(メタデータ) (2021-09-28T15:40:57Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。