論文の概要: PDPL Metric: Validating a Scale to Measure Personal Data Privacy Literacy Among University Students
- arxiv url: http://arxiv.org/abs/2601.00715v1
- Date: Fri, 02 Jan 2026 15:12:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.593565
- Title: PDPL Metric: Validating a Scale to Measure Personal Data Privacy Literacy Among University Students
- Title(参考訳): PDPL Metric: 大学生の個人データプライバシーリテラシー測定尺度の検証
- Authors: Brady D. Lund, Nathan Brown, Ana Roeschley, Gahangir Hossain,
- Abstract要約: 本研究は,大学生におけるデータプライバシーリテラシーの指標として,新たな心理測定尺度を導入し,検証するものである。
24項目のアンケートを作成し、米国を拠点とする研究大学の学生に実施した。
PDPLの差は、学術レベルや性別といった基本的な人口統計学的変数に基づいてはみられなかった。
- 参考スコア(独自算出の注目度): 2.7687863557017853
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personal data privacy literacy (PDPL) refers to a collection of digital literacy skills related to an individuals ability to understand, evaluate, and manage the collection, use, and protection of personal data in online and digital environments. This study introduces and validates a new psychometric scale (PDPL Metric) designed to measure data privacy literacy among university students, focusing on six key privacy constructs: perceived risk of data misuse, expectations of informed consent, general privacy concern, privacy management awareness, privacy-utility trade-off acceptance, and perceived importance of data security. A 24-item questionnaire was developed and administered to students at U.S.-based research universities. Principal components analysis confirmed the unidimensionality and internal consistency of each construct, and a second-order analysis supported the integration of all six into a unified PDPL construct. No differences in PDPL were found based on basic demographic variables like academic level and gender, although a difference was found based on domestic/international status. The findings of this study offer a validated framework for assessing personal data privacy literacy within the higher education context and support the integration of the core constructs into higher education programs, organizational policies, and digital literacy initiatives on university campuses.
- Abstract(参考訳): 個人データプライバシーリテラシー(個人データプライバシリテラシー、PDPL)は、個人がオンラインおよびデジタル環境における個人データの収集、使用、保護を理解し、評価し、管理する能力に関連するデジタルリテラシースキルの集合である。
本研究は,データ誤用リスクの認識,インフォームドコンセントの期待,一般的なプライバシ管理の意識,プライバシとユーティリティのトレードオフの受け入れ,データセキュリティの重要性の認識という,6つの重要なプライバシ構造に着目し,大学生間でのデータプライバシリテラシーを測定するために設計された新しい心理測定尺度(PDPL Metric)を紹介し,検証する。
24項目のアンケートを作成し、米国を拠点とする研究大学の学生に実施した。
主成分分析は各構成物の一次元性と内部の整合性を確認し, 2次解析は6つ全てを統一PDPL構成体に統合することを支持した。
PDPLの差異は、学術レベルや性別といった基本的な人口統計学的変数に基づいてはみられなかったが、国内・国際的地位による違いはみられなかった。
本研究は,高等教育現場における個人データのプライバシーリテラシーの評価と,高等教育プログラムへのコア構造の統合,組織方針,大学キャンパスにおけるデジタルリテラシーイニシアチブを支援するための検証済みフレームワークを提供する。
関連論文リスト
- PrivATE: Differentially Private Average Treatment Effect Estimation for Observational Data [49.35645194884526]
差分プライバシーを保証する実用的なATE推定フレームワークであるPrivATEを紹介する。
プライバシの異なるプライバシ要件を満たすために、プライバシ保護の2つのレベル(ラベルレベルとサンプルレベル)をPrivATEで設計する。
PrivATEはノイズによるエラーとマッチングエラーを効果的にバランスさせ、ATEをより正確に見積もる。
論文 参考訳(メタデータ) (2025-12-16T16:30:07Z) - Differential Privacy in Machine Learning: From Symbolic AI to LLMs [49.1574468325115]
差別化プライバシは、プライバシーリスクを軽減するための正式なフレームワークを提供する。
単一のデータポイントの包含や除外がアルゴリズムの出力を著しく変更しないことを保証する。
論文 参考訳(メタデータ) (2025-06-13T11:30:35Z) - Understanding the Relationship Between Personal Data Privacy Literacy and Data Privacy Information Sharing by University Students [1.6791044863781392]
この調査に基づく調査は、米国の大学生が個人のデータのプライバシーをどう認識するかを調査する。
プライバシーリテラシー尺度に対する学生の反応は、高いプライバシーリテラシーグループと低いプライバシーリテラシーグループに分類された。
論文 参考訳(メタデータ) (2025-05-24T21:14:53Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Federated Transfer Learning with Differential Privacy [21.50525027559563]
フェデレートラーニングは分散データを分析するための強力なフレームワークとして登場した。
本稿では,複数の異種ソースデータセットからの情報を活用することで,対象データセットの学習を向上させることを目的とする。
私たちは、データセットごとにプライバシーを保証するフェデレーションされた差分プライバシーの概念を厳格に定式化します。
論文 参考訳(メタデータ) (2024-03-17T21:04:48Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。