論文の概要: Advancing privacy in learning analytics using differential privacy
- arxiv url: http://arxiv.org/abs/2501.01786v1
- Date: Fri, 03 Jan 2025 12:36:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:10:36.586299
- Title: Advancing privacy in learning analytics using differential privacy
- Title(参考訳): 差分プライバシーを用いた学習分析におけるプライバシの向上
- Authors: Qinyi Liu, Ronas Shakya, Mohammad Khalil, Jelena Jovanovic,
- Abstract要約: 本稿では、差分プライバシー(DP)を適用して新しいフレームワークを提案することにより、学習者のデータプライバシと学習分析(LA)データとのバランスをとるという課題に対処する。
LA用に特別に設計された最初のDPフレームワークを紹介し,その実装に関する実践的なガイダンスを提供する。
我々は、このフレームワークをLA利用シナリオを通じて実演し、よく知られたLAデータセットの実験を通して、潜在的攻撃に対するデータプライバシ保護におけるDPの有効性を検証する。
- 参考スコア(独自算出の注目度): 0.412484724941528
- License:
- Abstract: This paper addresses the challenge of balancing learner data privacy with the use of data in learning analytics (LA) by proposing a novel framework by applying Differential Privacy (DP). The need for more robust privacy protection keeps increasing, driven by evolving legal regulations and heightened privacy concerns, as well as traditional anonymization methods being insufficient for the complexities of educational data. To address this, we introduce the first DP framework specifically designed for LA and provide practical guidance for its implementation. We demonstrate the use of this framework through a LA usage scenario and validate DP in safeguarding data privacy against potential attacks through an experiment on a well-known LA dataset. Additionally, we explore the trade-offs between data privacy and utility across various DP settings. Our work contributes to the field of LA by offering a practical DP framework that can support researchers and practitioners in adopting DP in their works.
- Abstract(参考訳): 本稿では,学習者データプライバシと学習分析(LA)データとのバランスをとる上で,差分プライバシー(DP)を適用して新たなフレームワークを提案する。
より堅牢なプライバシー保護の必要性は、法的規制の進化とプライバシーの懸念の高まりと、教育データの複雑さに不十分な従来の匿名化方法によって、増加し続けている。
そこで我々は,LA向けに設計された最初のDPフレームワークを導入し,その実装に関する実践的なガイダンスを提供する。
我々は、このフレームワークをLA利用シナリオを通じて実演し、よく知られたLAデータセットの実験を通して、潜在的攻撃に対するデータプライバシ保護におけるDPの有効性を検証する。
さらに、さまざまなDP設定におけるデータプライバシとユーティリティのトレードオフについても検討する。
本研究は, 研究者や実践者が研究にDPを採用する上で支援できる実用的なDPフレームワークを提供することで, LAの分野に貢献する。
関連論文リスト
- SoK: Usability Studies in Differential Privacy [3.4111656179349743]
差分プライバシー(DP)は、個人プライバシをデータ分析で保護するための重要なアプローチとして登場した。
本稿では,DPのユーザビリティとコミュニケーションに関する既存研究の包括的体系化について述べる。
論文 参考訳(メタデータ) (2024-12-22T02:21:57Z) - Privacy-Preserving Large Language Models: Mechanisms, Applications, and Future Directions [0.0]
本調査では,大規模言語モデルに適したプライバシ保護機構の展望について考察する。
メンバーシップ推論やモデル逆転攻撃といった重要なプライバシー問題に対処する上での有効性を検討する。
本稿では、最先端のアプローチと今後のトレンドを合成することによって、堅牢でプライバシーに配慮した大規模言語モデルを構築するための基盤を提供する。
論文 参考訳(メタデータ) (2024-12-09T00:24:09Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - LLM-based Privacy Data Augmentation Guided by Knowledge Distillation
with a Distribution Tutor for Medical Text Classification [67.92145284679623]
ノイズの多いプライベートディストリビューションをモデル化し,プライバシコストの低いサンプル生成を制御するDPベースのチュータを提案する。
理論的には、モデルのプライバシ保護を分析し、モデルを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-26T11:52:55Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Advancing Differential Privacy: Where We Are Now and Future Directions for Real-World Deployment [100.1798289103163]
差分プライバシ(DP)分野における現状と現状の方法論の詳細なレビューを行う。
論文のポイントとハイレベルな内容は,「認知プライバシ(DP:次のフロンティアへの挑戦)」の議論から生まれた。
この記事では、プライバシの領域におけるアルゴリズムおよび設計決定の基準点を提供することを目標とし、重要な課題と潜在的研究の方向性を強調します。
論文 参考訳(メタデータ) (2023-04-14T05:29:18Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。