論文の概要: "Am I Private and If So, how Many?" -- Using Risk Communication Formats
for Making Differential Privacy Understandable
- arxiv url: http://arxiv.org/abs/2204.04061v3
- Date: Wed, 12 Oct 2022 08:28:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:11:59.549903
- Title: "Am I Private and If So, how Many?" -- Using Risk Communication Formats
for Making Differential Privacy Understandable
- Title(参考訳): 「私も私も、もしそうなら、何人?」...差別的プライバシーを守れるようにリスクコミュニケーションフォーマットを使って
- Authors: Daniel Franzen (1), Saskia Nu\~nez von Voigt (2), Peter S\"orries (1),
Florian Tschorsch (2), Claudia M\"uller-Birn (1) ((1) Freie Universit\"at
Berlin, (2) Technische Universit\"at Berlin)
- Abstract要約: 我々は、差別化プライバシのプライバシリスクモデルと合わせて、リスクコミュニケーションフォーマットを適応する。
我々はこれらの新しいプライバシーコミュニケーションフォーマットをクラウドソーシング研究で評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Mobility data is essential for cities and communities to identify areas for
necessary improvement. Data collected by mobility providers already contains
all the information necessary, but privacy of the individuals needs to be
preserved. Differential privacy (DP) defines a mathematical property which
guarantees that certain limits of privacy are preserved while sharing such
data, but its functionality and privacy protection are difficult to explain to
laypeople. In this paper, we adapt risk communication formats in conjunction
with a model for the privacy risks of DP. The result are privacy notifications
which explain the risk to an individual's privacy when using DP, rather than
DP's functionality. We evaluate these novel privacy communication formats in a
crowdsourced study. We find that they perform similarly to the best performing
DP communications used currently in terms of objective understanding, but did
not make our participants as confident in their understanding. We also
discovered an influence, similar to the Dunning-Kruger effect, of the
statistical numeracy on the effectiveness of some of our privacy communication
formats and the DP communication format used currently. These results generate
hypotheses in multiple directions, for example, toward the use of risk
visualization to improve the understandability of our formats or toward
adaptive user interfaces which tailor the risk communication to the
characteristics of the reader.
- Abstract(参考訳): 都市やコミュニティにとって、モビリティデータは必要な改善のための地域を特定するために不可欠である。
モビリティプロバイダが収集したデータは、必要なすべての情報を含んでいるが、個人のプライバシーは保存する必要がある。
differential privacy (dp)は、データ共有中にプライバシーの特定の制限が保持されることを保証する数学的特性を定義するが、その機能とプライバシ保護は素人に対して説明が難しい。
本稿では,DPのプライバシリスクのモデルと合わせて,リスクコミュニケーション形式を適応させる。
その結果、DPの機能ではなく、DPを使用する際の個人のプライバシーに対するリスクを説明するプライバシー通知が得られた。
我々はこれらの新しいプライバシーコミュニケーションフォーマットをクラウドソーシング研究で評価する。
客観的理解の観点からは,現在使用されているDP通信の最高性能とよく似ているが,参加者にその理解に自信を持たせることは出来なかった。
また,dunning-kruger効果に類似した,プライバシ通信形式や現在使用されているdp通信形式の有効性に関する統計数値の影響も見いだした。
これらの結果は, リスクビジュアライゼーションの活用によるフォーマットの理解性向上や, リスクコミュニケーションを読者の特性に合わせて調整するユーザインタフェースの活用など, 複数方向の仮説を生成する。
関連論文リスト
- Group Decision-Making among Privacy-Aware Agents [2.88268082568407]
個人のプライバシーを維持し、効果的な社会学習を可能にすることはどちらも重要なデシダータであるが、基本的には互いに相反しているように見える。
差分プライバシー(DP)に基づく厳密な統計的保証を用いて情報漏洩を制御する。
その結果,グループ意思決定の結果の質,学習精度,通信コスト,エージェントが備えているプライバシー保護の水準の両面でのトレードオフの性質が明らかになった。
論文 参考訳(メタデータ) (2024-02-13T01:38:01Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models
via Contextual Integrity Theory [86.8514623654506]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - DPMAC: Differentially Private Communication for Cooperative Multi-Agent
Reinforcement Learning [21.961558461211165]
コミュニケーションは、人間社会とマルチエージェント強化学習(MARL)における協力の基礎となる。
本稿では,各エージェントに厳密な$(epsilon, delta)$-differential privacy guaranteeを付与したローカルメッセージ送信装置を装備することにより,個々のエージェントのセンシティブな情報を保護できる,テキスト・ディペンデンシャル・プライベート・マルチエージェント・コミュニケーション(DPMAC)アルゴリズムを提案する。
我々は、プライバシ保護通信と協調的なMARLにおけるナッシュ均衡の存在を証明し、この問題がゲーム理論的に学習可能であることを示唆する。
論文 参考訳(メタデータ) (2023-08-19T04:26:23Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Semantics-Preserved Distortion for Personal Privacy Protection [48.69930912510414]
クライアントデバイスでは、ユーザによって毎日、個人情報を含む大量のテキストが生成される。
フェデレートラーニング(Federated Learning)では、クライアントデバイスの生の情報から中心モデルをブロックする多くの方法が提案されている。
本稿では,意味を保ちながらテキストを歪ませることで,より言語的にこれを行おうとする。
論文 参考訳(メタデータ) (2022-01-04T04:01:05Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - On Privacy and Confidentiality of Communications in Organizational
Graphs [3.5270468102327004]
この研究は、企業コンテキストにおける機密性とプライバシの区別方法を示している。
それは、機密性を維持するためのアプローチを定式化し、差分プライバシーの原則を活用することを目的としている。
論文 参考訳(メタデータ) (2021-05-27T19:45:56Z) - Privacy-Adaptive BERT for Natural Language Understanding [20.821155542969947]
BERTを用いたローカルプライバシ設定下でのNLUモデルの有効性向上について検討する。
本稿では,プライバシ対応lmプリトレーニング手法を提案し,民営化テキスト入力におけるモデル性能を大幅に向上できることを実証する。
論文 参考訳(メタデータ) (2021-04-15T15:01:28Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。