論文の概要: What's Privacy Good for? Measuring Privacy as a Shield from Harms due to Personal Data Use
- arxiv url: http://arxiv.org/abs/2506.22787v1
- Date: Sat, 28 Jun 2025 07:00:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.567341
- Title: What's Privacy Good for? Measuring Privacy as a Shield from Harms due to Personal Data Use
- Title(参考訳): プライバシとは何か? 個人情報使用による障害からの保護としてプライバシを測定する
- Authors: Sri Harsha Gajavalli, Junichi Koizumi, Rakibul Hasan,
- Abstract要約: 我々は、400人の大学生と大学生によるオンライン研究において、この概念化を運用する。
研究参加者は、人工知能ベースのアルゴリズムが個人データを推測する際に生じる様々な害に対する認識を示した。
研究データの総合的統計分析により、14の害は内部的に一貫したものであり、全体としてプライバシー害の一般的な概念を表していることが示された。
- 参考スコア(独自算出の注目度): 6.662199530439544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a harm-centric conceptualization of privacy that asks: What harms from personal data use can privacy prevent? The motivation behind this research is limitations in existing privacy frameworks (e.g., Contextual Integrity) to capture or categorize many of the harms that arise from modern technology's use of personal data. We operationalize this conceptualization in an online study with 400 college and university students. Study participants indicated their perceptions of different harms (e.g., manipulation, discrimination, and harassment) that may arise when artificial intelligence-based algorithms infer personal data (e.g., demographics, personality traits, and cognitive disability) and use it to identify students who are likely to drop out of a course or the best job candidate. The study includes 14 harms and six types of personal data selected based on an extensive literature review. Comprehensive statistical analyses of the study data show that the 14 harms are internally consistent and collectively represent a general notion of privacy harms. The study data also surfaces nuanced perceptions of harms, both across the contexts and participants' demographic factors. Based on these results, we discuss how privacy can be improved equitably. Thus, this research not only contributes to enhancing the understanding of privacy as a concept but also provides practical guidance to improve privacy in the context of education and employment.
- Abstract(参考訳): 我々は、プライバシーの害中心の概念化を提案します。 個人データの使用による害は、プライバシを防げますか?
この研究の背後にあるモチベーションは、既存のプライバシーフレームワーク(例えば、コンテキスト統合性)の制限であり、現代の技術による個人データの使用による害の多くをキャプチャーまたは分類する。
我々は、400人の大学生と大学生によるオンライン研究において、この概念化を運用する。
研究参加者は、人工知能に基づくアルゴリズムが個人データ(人口統計、人格特性、認知障害など)を推論し、コースから外れそうな学生や最高の求職候補者を識別する際に生じる異なる害(例えば、操作、差別、嫌がらせ)に対する認識を示した。
この研究には、広範な文献レビューに基づいて選択された14の害と6種類の個人データが含まれている。
研究データの総合的統計分析により、14の害は内部的に一貫したものであり、全体としてプライバシー害の一般的な概念を表していることが示された。
研究データはまた、文脈と参加者の人口統計的要因の両方にわたって、害の微妙な認識を明らかにする。
これらの結果に基づいて、プライバシを公平に改善する方法について論じる。
このように、この研究は、概念としてのプライバシの理解の向上に寄与するだけでなく、教育や雇用の文脈におけるプライバシ向上のための実践的なガイダンスも提供する。
関連論文リスト
- Privacy Checklist: Privacy Violation Detection Grounding on Contextual Integrity Theory [43.12744258781724]
単純なパターンマッチングではなく、推論問題としてプライバシー問題を定式化します。
我々は、社会的アイデンティティ、プライベート属性、および既存のプライバシー規則を網羅する、最初の包括的なチェックリストを開発する。
論文 参考訳(メタデータ) (2024-08-19T14:48:04Z) - Embedding Privacy in Computational Social Science and Artificial Intelligence Research [2.048226951354646]
プライバシーの保護は研究の重要な要素として浮上している。
高度な計算モデルの利用の増加は、プライバシーの懸念を悪化させる。
この記事では、プライバシの役割と、CSS、AI、データサイエンス、および関連するドメインで働く研究者が直面する問題について議論することによって、この分野に貢献する。
論文 参考訳(メタデータ) (2024-04-17T16:07:53Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Systematic Review on Privacy Categorization [1.5377372227901214]
本研究は,プライバシ分類に関する文献を体系的にレビューすることを目的としている。
プライバシーの分類には、特定の前提条件に従ってユーザーを分類する機能が含まれる。
論文 参考訳(メタデータ) (2023-07-07T15:18:26Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。