論文の概要: When PETs misbehave: A Contextual Integrity analysis
- arxiv url: http://arxiv.org/abs/2312.02509v1
- Date: Tue, 5 Dec 2023 05:27:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 16:38:07.595339
- Title: When PETs misbehave: A Contextual Integrity analysis
- Title(参考訳): PETの誤動作:コンテキスト統合分析
- Authors: Ero Balsa and Yan Shvartzshnaider
- Abstract要約: 私たちは、プライバシー技術がプライバシーを損なうためにどのように悪用されるかを説明するために、コンテキスト統合の理論を使用します。
年齢検証のための匿名認証、不正コンテンツ検出のためのクライアント側スキャン、機械学習モデルのトレーニングのための同型暗号化の3つのPETとシナリオについて検討する。
- 参考スコア(独自算出の注目度): 0.7397067779113841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy enhancing technologies, or PETs, have been hailed as a promising
means to protect privacy without compromising on the functionality of digital
services. At the same time, and partly because they may encode a narrow
conceptualization of privacy as confidentiality that is popular among
policymakers, engineers and the public, PETs risk being co-opted to promote
privacy-invasive practices. In this paper, we resort to the theory of
Contextual Integrity to explain how privacy technologies may be misused to
erode privacy. To illustrate, we consider three PETs and scenarios: anonymous
credentials for age verification, client-side scanning for illegal content
detection, and homomorphic encryption for machine learning model training.
Using the theory of Contextual Integrity, we reason about the notion of privacy
that these PETs encode, and show that CI enables us to identify and reason
about the limitations of PETs and their misuse, and which may ultimately lead
to privacy violations.
- Abstract(参考訳): プライバシー強化技術(PET)は、デジタルサービスの機能を損なうことなくプライバシーを保護する有望な手段として評価されている。
同時に、また、政策立案者、技術者、大衆の間で人気がある秘密性としてのプライバシーの狭義の概念化をコード化しているため、ペットのリスクは、プライバシーを侵害するプラクティスを促進するために共用される。
本稿では,プライバシー技術がプライバシーを損なうためにどのように悪用されるかを説明するために,コンテキスト整合性の理論を利用する。
年齢確認のための匿名認証、違法コンテンツ検出のためのクライアントサイドスキャン、機械学習モデルのトレーニングのための準同型暗号化の3つのペットとシナリオを考察する。
文脈整合性の理論を用いて、これらのPETが符号化するプライバシーの概念を推論し、CIによってPETの限界とその誤用を識別し、推論することが可能であり、最終的にはプライバシー侵害につながる可能性があることを示す。
関連論文リスト
- Smoke Screens and Scapegoats: The Reality of General Data Protection Regulation Compliance -- Privacy and Ethics in the Case of Replika AI [1.325665193924634]
本稿では,AIコンパニオンサービスにおけるこれらの課題の複雑さを検討するために,批判的なアプローチをとる。
当社は、企業とその実践に関するメディアの記事を分析し、ポリシーで提供された情報の信頼性に関する洞察を得る。
その結果、プライバシーの通知にもかかわらず、データ収集のプラクティスはユーザーの完全な認識なしに個人データを収集する可能性があることが判明した。
論文 参考訳(メタデータ) (2024-11-07T07:36:19Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Privacy Checklist: Privacy Violation Detection Grounding on Contextual Integrity Theory [43.12744258781724]
単純なパターンマッチングではなく、推論問題としてプライバシー問題を定式化します。
我々は、社会的アイデンティティ、プライベート属性、および既存のプライバシー規則を網羅する、最初の包括的なチェックリストを開発する。
論文 参考訳(メタデータ) (2024-08-19T14:48:04Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Mitigating Sovereign Data Exchange Challenges: A Mapping to Apply
Privacy- and Authenticity-Enhancing Technologies [67.34625604583208]
AET(Authenticity Enhancing Technologies)とPET(Privacy-Enhancing Technologies)は、SDE(Sovereign Data Exchange)に関与していると考えられている。
PETとAETは技術的に複雑であり、採用を妨げる。
本研究は,挑戦指向技術マッピングを実証的に構築する。
論文 参考訳(メタデータ) (2022-06-20T08:16:42Z) - The Evolving Path of "the Right to Be Left Alone" - When Privacy Meets
Technology [0.0]
本稿では,プライバシエコシステムの新たなビジョンとして,プライバシの次元,関連するユーザの期待,プライバシ違反,変化要因を導入することを提案する。
プライバシー問題に取り組むための有望なアプローチは, (i) 効果的なプライバシメトリクスの識別, (ii) プライバシに準拠したアプリケーションを設計するためのフォーマルなツールの採用という,2つの方向に移行している,と私たちは信じています。
論文 参考訳(メタデータ) (2021-11-24T11:27:55Z) - Equity and Privacy: More Than Just a Tradeoff [10.545898004301323]
近年の研究では、プライバシ保護データ公開が、異なる集団グループ間で異なるレベルのユーティリティを導入できることが示されている。
限界人口は、プライバシー技術から不公平に実用性を減らすのだろうか?
不等式があれば、どのように対処すればよいのか?
論文 参考訳(メタデータ) (2021-11-08T17:39:32Z) - Usage Patterns of Privacy-Enhancing Technologies [6.09170287691728]
本稿では,プライバシ研究に寄与し,43ドルのプライバシ手法における使用感と使用感を抽出する。
非技術手法は、アメリカ合衆国、イギリス、ドイツでもっとも使われている手法の一つである。
本研究はPETの集合体における使用と知覚の幅広い理解を提供し、PETのスケール化に向けた将来の研究につながる可能性がある。
論文 参考訳(メタデータ) (2020-09-22T02:17:37Z) - A vision for global privacy bridges: Technical and legal measures for
international data markets [77.34726150561087]
データ保護法とプライバシーの権利が認められているにもかかわらず、個人情報の取引は「トレーディング・オイル」と同等のビジネスになっている。
オープンな対立は、データに対するビジネスの要求とプライバシーへの欲求の間に生じている。
プライバシを備えたパーソナル情報市場のビジョンを提案し,テストする。
論文 参考訳(メタデータ) (2020-05-13T13:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。