論文の概要: Privacy Explanations - A Means to End-User Trust
- arxiv url: http://arxiv.org/abs/2210.09706v2
- Date: Thu, 20 Oct 2022 06:35:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:51:10.618679
- Title: Privacy Explanations - A Means to End-User Trust
- Title(参考訳): プライバシーの説明 - エンドユーザー信頼の意味
- Authors: Wasja Brunotte, Alexander Specht, Larissa Chazette, Kurt Schneider
- Abstract要約: この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
- 参考スコア(独自算出の注目度): 64.7066037969487
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Software systems are ubiquitous, and their use is ingrained in our everyday
lives. They enable us to get in touch with people quickly and easily, support
us in gathering information, and help us perform our daily tasks. In return, we
provide these systems with a large amount of personal information, often
unaware that this is jeopardizing our privacy. End users are typically unaware
of what data is collected, for what purpose, who has access to it, and where
and how it is stored. To address this issue, we looked into how explainability
might help to tackle this problem. We created privacy explanations that aim to
help to clarify to end users why and for what purposes specific data is
required. We asked end users about privacy explanations in a survey and found
that the majority of respondents (91.6 \%) are generally interested in
receiving privacy explanations. Our findings reveal that privacy explanations
can be an important step towards increasing trust in software systems and can
increase the privacy awareness of end users. These findings are a significant
step in developing privacy-aware systems and incorporating usable privacy
features into them, assisting users in protecting their privacy.
- Abstract(参考訳): ソフトウェアシステムはユビキタスであり、その利用は私たちの日常生活に浸透している。
それによって、素早く簡単に人々と連絡を取り、情報収集を支援し、日々の作業を支援することができます。
その代わり、私たちはこれらのシステムに大量の個人情報を提供し、これが私たちのプライバシーを危険にさらしていることに気づかないことが多い。
エンドユーザは通常、収集されたデータ、目的、アクセスした人、どこに、どのように保存されているのかを知らない。
この問題に対処するため、我々は説明責任がこの問題にどのように取り組むかを検討した。
プライバシーの説明を作成して、エンドユーザの理由と目的を特定するために役立ちました。
調査でエンドユーザにプライバシの説明について質問したところ、回答者の大多数(91.6%)が一般的にプライバシの説明を受けることに関心を持っていることがわかった。
その結果,プライバシーの説明はソフトウェアシステムの信頼性を高めるための重要なステップであり,エンドユーザのプライバシー意識を高めることができることがわかった。
これらの発見は、プライバシを認識したシステムを開発し、使用可能なプライバシ機能を組み込むことで、ユーザのプライバシ保護を支援します。
関連論文リスト
- PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - PrivacyRestore: Privacy-Preserving Inference in Large Language Models via Privacy Removal and Restoration [18.11846784025521]
PrivacyRestoreは、推論中のユーザの入力のプライバシを保護するためのプラグイン・アンド・プレイ方式である。
プライバシストアの有効性を評価するために、医療ドメインと法律ドメインをカバーする3つのデータセットを作成します。
論文 参考訳(メタデータ) (2024-06-03T14:57:39Z) - Understanding How to Inform Blind and Low-Vision Users about Data Privacy through Privacy Question Answering Assistants [23.94659412932831]
盲点と低視野(BLV)のユーザは、セキュリティとプライバシのリスクが高まっていますが、リスク軽減は不十分です。
我々の研究は、ユーザビリティ、アクセシビリティ、信頼、およびデジタルデータのプライバシに関する株式問題に関して、BLVユーザの期待に光を当てています。
論文 参考訳(メタデータ) (2023-10-12T19:51:31Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - PEAK: Explainable Privacy Assistant through Automated Knowledge
Extraction [1.0609815608017064]
本稿ではプライバシ決定のための説明を生成するためのプライバシアシスタントを提案する。
生成された説明は、プライバシアシスタントのレコメンデーションを理解するために使用することができる。
生成した説明を最先端のプライバシアシスタントに組み込むことで、これを実現する方法を示す。
論文 参考訳(メタデータ) (2023-01-05T14:25:20Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - "I need a better description'': An Investigation Into User Expectations
For Differential Privacy [31.352325485393074]
差分プライバシーに関連するユーザのプライバシ期待について検討する。
ユーザが関心を持っているのは、差分プライバシーが保護する情報漏洩の種類だ。
差分プライバシを記述する方法が,ユーザプライバシの期待を必然的に設定していることが分かりました。
論文 参考訳(メタデータ) (2021-10-13T02:36:37Z) - The Challenges and Impact of Privacy Policy Comprehension [0.0]
本稿では、避けられないシンプルなプライバシーポリシーのプライバシーフレンドリさを実験的に操作した。
参加者の半数は、この透明なプライバシーポリシーさえ誤解している。
このような落とし穴を緩和するため、私たちはインフォームドコンセントの品質を向上させる設計勧告を提示します。
論文 参考訳(メタデータ) (2020-05-18T14:16:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。