論文の概要: Systematic Review on Privacy Categorization
- arxiv url: http://arxiv.org/abs/2307.03652v1
- Date: Fri, 7 Jul 2023 15:18:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 18:16:51.559096
- Title: Systematic Review on Privacy Categorization
- Title(参考訳): プライバシ分類に関するシステムレビュー
- Authors: Paola Inverardi, Patrizio Migliarini, Massimiliano Palmiero
- Abstract要約: 本研究は,プライバシ分類に関する文献を体系的にレビューすることを目的としている。
プライバシーの分類には、特定の前提条件に従ってユーザーを分類する機能が含まれる。
- 参考スコア(独自算出の注目度): 1.5377372227901214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the modern digital world users need to make privacy and security choices
that have far-reaching consequences. Researchers are increasingly studying
people's decisions when facing with privacy and security trade-offs, the
pressing and time consuming disincentives that influence those decisions, and
methods to mitigate them. This work aims to present a systematic review of the
literature on privacy categorization, which has been defined in terms of
profile, profiling, segmentation, clustering and personae. Privacy
categorization involves the possibility to classify users according to specific
prerequisites, such as their ability to manage privacy issues, or in terms of
which type of and how many personal information they decide or do not decide to
disclose. Privacy categorization has been defined and used for different
purposes. The systematic review focuses on three main research questions that
investigate the study contexts, i.e. the motivations and research questions,
that propose privacy categorisations; the methodologies and results of privacy
categorisations; the evolution of privacy categorisations over time. Ultimately
it tries to provide an answer whether privacy categorization as a research
attempt is still meaningful and may have a future.
- Abstract(参考訳): 現代のデジタル世界では、ユーザーはプライバシーとセキュリティの選択をしなければなりません。
研究者たちは、プライバシーとセキュリティのトレードオフ、これらの決定に影響を及ぼす不利益を圧迫し、消費する時間、そしてそれらを緩和する方法に直面している。
本研究は,プロファイリング,プロファイリング,セグメンテーション,クラスタリング,ペルソナの観点で定義された,プライバシの分類に関する文献を体系的にレビューすることを目的とする。
プライバシの分類には、プライバシ問題を管理する能力や、公開を決定したりしない個人情報の種類や数といった、特定の前提条件に従ってユーザを分類する可能性が含まれる。
プライバシーの分類は、異なる目的のために定義され、使用されている。
この体系的なレビューは、研究の文脈、すなわちプライバシーの分類を提案する動機と研究の質問、プライバシーの分類の方法論と結果、時間とともにプライバシーの分類の進化を調査する3つの主要な研究課題に焦点を当てている。
究極的には、研究の試みとしてのプライバシーの分類がいまだ意味があり、未来があるかどうかを答えようとしている。
関連論文リスト
- Can LLMs Keep a Secret? Testing Privacy Implications of Language Models
via Contextual Integrity Theory [86.8514623654506]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off [58.204074436129716]
フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
論文 参考訳(メタデータ) (2023-06-25T04:38:19Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Leveraging Privacy Profiles to Empower Users in the Digital Society [7.350403786094707]
市民のプライバシーと倫理は、ますますデジタル化されつつある社会によってもたらされる懸念の中核にある。
我々は、フィットネス領域から収集された既存のデータセットに関する実証的研究を通じて、プライバシの次元に注目し、上記の方向のステップに貢献する。
その結果、セマンティック駆動型質問のコンパクトなセットは、複雑なドメイン依存質問よりもユーザを識別するのに役立つことがわかった。
論文 参考訳(メタデータ) (2022-04-01T15:31:50Z) - The Evolving Path of "the Right to Be Left Alone" - When Privacy Meets
Technology [0.0]
本稿では,プライバシエコシステムの新たなビジョンとして,プライバシの次元,関連するユーザの期待,プライバシ違反,変化要因を導入することを提案する。
プライバシー問題に取り組むための有望なアプローチは, (i) 効果的なプライバシメトリクスの識別, (ii) プライバシに準拠したアプリケーションを設計するためのフォーマルなツールの採用という,2つの方向に移行している,と私たちは信じています。
論文 参考訳(メタデータ) (2021-11-24T11:27:55Z) - User Perception of Privacy with Ubiquitous Devices [5.33024001730262]
本研究は,ユビキタステクノロジーの時代におけるプライバシの認識に関する様々な懸念を探求し,発見することを目的としている。
公共やプライベートスペースにおけるプライバシーに対する態度、プライバシーの意識、同意を求めること、様々な技術に関連するジレンマ/コンフュージョン、公共やプライベートスペースにおけるプライバシーの侵害から身を守る方法に関する個人行動に対する態度と信念の影響など、主要なテーマである。
論文 参考訳(メタデータ) (2021-07-23T05:01:44Z) - Decision Making with Differential Privacy under a Fairness Lens [44.4747903763245]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシーと機密性要件に従うために、これらの機関は、しばしばデータのプライバシー保存バージョンをリリースする必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Learning With Differential Privacy [3.618133010429131]
異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
論文 参考訳(メタデータ) (2020-06-10T02:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。