論文の概要: Systematic Review on Privacy Categorization
- arxiv url: http://arxiv.org/abs/2307.03652v1
- Date: Fri, 7 Jul 2023 15:18:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 18:16:51.559096
- Title: Systematic Review on Privacy Categorization
- Title(参考訳): プライバシ分類に関するシステムレビュー
- Authors: Paola Inverardi, Patrizio Migliarini, Massimiliano Palmiero
- Abstract要約: 本研究は,プライバシ分類に関する文献を体系的にレビューすることを目的としている。
プライバシーの分類には、特定の前提条件に従ってユーザーを分類する機能が含まれる。
- 参考スコア(独自算出の注目度): 1.5377372227901214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the modern digital world users need to make privacy and security choices
that have far-reaching consequences. Researchers are increasingly studying
people's decisions when facing with privacy and security trade-offs, the
pressing and time consuming disincentives that influence those decisions, and
methods to mitigate them. This work aims to present a systematic review of the
literature on privacy categorization, which has been defined in terms of
profile, profiling, segmentation, clustering and personae. Privacy
categorization involves the possibility to classify users according to specific
prerequisites, such as their ability to manage privacy issues, or in terms of
which type of and how many personal information they decide or do not decide to
disclose. Privacy categorization has been defined and used for different
purposes. The systematic review focuses on three main research questions that
investigate the study contexts, i.e. the motivations and research questions,
that propose privacy categorisations; the methodologies and results of privacy
categorisations; the evolution of privacy categorisations over time. Ultimately
it tries to provide an answer whether privacy categorization as a research
attempt is still meaningful and may have a future.
- Abstract(参考訳): 現代のデジタル世界では、ユーザーはプライバシーとセキュリティの選択をしなければなりません。
研究者たちは、プライバシーとセキュリティのトレードオフ、これらの決定に影響を及ぼす不利益を圧迫し、消費する時間、そしてそれらを緩和する方法に直面している。
本研究は,プロファイリング,プロファイリング,セグメンテーション,クラスタリング,ペルソナの観点で定義された,プライバシの分類に関する文献を体系的にレビューすることを目的とする。
プライバシの分類には、プライバシ問題を管理する能力や、公開を決定したりしない個人情報の種類や数といった、特定の前提条件に従ってユーザを分類する可能性が含まれる。
プライバシーの分類は、異なる目的のために定義され、使用されている。
この体系的なレビューは、研究の文脈、すなわちプライバシーの分類を提案する動機と研究の質問、プライバシーの分類の方法論と結果、時間とともにプライバシーの分類の進化を調査する3つの主要な研究課題に焦点を当てている。
究極的には、研究の試みとしてのプライバシーの分類がいまだ意味があり、未来があるかどうかを答えようとしている。
関連論文リスト
- Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - Identifying Privacy Personas [27.301741710016223]
プライバシ・ペルソナは、自身の知識、行動パターン、自己効力度レベル、プライバシ保護の重要性に対する認識に関して、ユーザセグメントの違いを捉えている。
文学では様々なプライバシ・ペルソナが派生しているが、重要な属性の観点から異なる人物をまとめている。
本研究では,対話型教育アンケートに対する質的,定量的な回答分析を組み合わせることで導出する8つのペルソナを提案する。
論文 参考訳(メタデータ) (2024-10-17T20:49:46Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Embedding Privacy in Computational Social Science and Artificial Intelligence Research [2.048226951354646]
プライバシーの保護は研究の重要な要素として浮上している。
高度な計算モデルの利用の増加は、プライバシーの懸念を悪化させる。
この記事では、プライバシの役割と、CSS、AI、データサイエンス、および関連するドメインで働く研究者が直面する問題について議論することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-17T16:07:53Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off [58.204074436129716]
フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
論文 参考訳(メタデータ) (2023-06-25T04:38:19Z) - Leveraging Privacy Profiles to Empower Users in the Digital Society [7.350403786094707]
市民のプライバシーと倫理は、ますますデジタル化されつつある社会によってもたらされる懸念の中核にある。
我々は、フィットネス領域から収集された既存のデータセットに関する実証的研究を通じて、プライバシの次元に注目し、上記の方向のステップに貢献する。
その結果、セマンティック駆動型質問のコンパクトなセットは、複雑なドメイン依存質問よりもユーザを識別するのに役立つことがわかった。
論文 参考訳(メタデータ) (2022-04-01T15:31:50Z) - User Perception of Privacy with Ubiquitous Devices [5.33024001730262]
本研究は,ユビキタステクノロジーの時代におけるプライバシの認識に関する様々な懸念を探求し,発見することを目的としている。
公共やプライベートスペースにおけるプライバシーに対する態度、プライバシーの意識、同意を求めること、様々な技術に関連するジレンマ/コンフュージョン、公共やプライベートスペースにおけるプライバシーの侵害から身を守る方法に関する個人行動に対する態度と信念の影響など、主要なテーマである。
論文 参考訳(メタデータ) (2021-07-23T05:01:44Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - Learning With Differential Privacy [3.618133010429131]
異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
論文 参考訳(メタデータ) (2020-06-10T02:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。