論文の概要: Students' Information Privacy Concerns in Learning Analytics: Towards a
Model Development
- arxiv url: http://arxiv.org/abs/2109.00068v1
- Date: Tue, 31 Aug 2021 20:32:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 16:01:22.266815
- Title: Students' Information Privacy Concerns in Learning Analytics: Towards a
Model Development
- Title(参考訳): 学習分析における学生の情報プライバシー問題--モデル開発に向けて
- Authors: Chantal Mutimukwe, Jean Damascene Twizeyimana, Olga Viberg
- Abstract要約: 本研究では,学習分析(LA)に関する学生の情報プライバシー問題(IPC)を理解するための理論的モデルを提案する。
我々は、ICCを、プライバシーの脆弱性の認識とプライバシーのコントロールの認識と、その影響、信念の信頼と自己開示行動の2つの先行する部分の中央構造として検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The widespread interest in learning analytics (LA) is associated with
increased availability of and access to student data where students' actions
are monitored, collected, stored and analysed. The availability and analysis of
such data is argued to be crucial for improved learning and teaching. Yet,
these data can be exposed to misuse, for example to be used for commercial
purposes, consequently, resulting in information privacy concerns (IPC) of
students who are the key stakeholders and data subjects in the LA context. The
main objective of this study is to propose a theoretical model to understand
the IPC of students in relation to LA. We explore the IPC as a central
construct between its two antecedents: perceived privacy vulnerability and
perceived privacy control, and its consequences, trusting beliefs and
self-disclosure behavior. Although these relationships have been investigated
in other contexts, this study aims to offer mainly theoretical insights on how
these relationships may be shaped in the context of LA in higher education.
Understanding students' IPC, the related root causes and consequences in LA is
the key step to a more comprehensive understanding of privacy issues and the
development of effective privacy practices that would protect students' privacy
in the evolving setting of data-driven higher education.
- Abstract(参考訳): 学習分析(LA)に対する幅広い関心は、学生の行動を監視し、収集し、保存し、分析する学生データへのアクセスと利用の増加に関連している。
このようなデータの可用性と分析は、学習と教育の改善に不可欠である。
しかし、例えば商業目的に使用するために、これらのデータは誤用にさらされる可能性があるため、laコンテキストにおける主要な利害関係者やデータ科目である学生のipc(information privacy concerns)が発生します。
本研究の目的は,LAに関する学生のIPCを理解するための理論的モデルを提案することである。
プライバシの脆弱性と認識されるプライバシコントロール,その影響,信念の信頼,自己開示行動という2つの先行概念の中間構造として,ipcを考察する。
これらの関係は他の文脈で研究されているが、高等教育におけるlaの文脈においてこれらの関係がどのように形成されるかに関する理論的知見を主に提供することを目的としている。
LAにおける学生のIPC、関連する根本原因と結果を理解することは、データ駆動高等教育の進化において生徒のプライバシを保護する効果的なプライバシプラクティスの開発と、より包括的なプライバシー問題を理解するための重要なステップである。
関連論文リスト
- Privacy in Federated Learning [0.0]
フェデレートラーニング(FL)は、分散機械学習における重要な進歩である。
この章では、データ再構成のリスク、モデル反転攻撃、メンバシップ推論など、FLの中核的なプライバシに関する懸念を掘り下げている。
モデル精度とプライバシのトレードオフを調べ、実践的な実装においてこれらの要因のバランスをとることの重要性を強調します。
論文 参考訳(メタデータ) (2024-08-12T18:41:58Z) - Data-Centric AI in the Age of Large Language Models [51.20451986068925]
本稿では,大規模言語モデル(LLM)に着目した,AI研究におけるデータ中心の視点を提案する。
本研究では,LLMの発達段階(事前学習や微調整など)や推論段階(文脈内学習など)において,データが有効であることを示す。
データを中心とした4つのシナリオを特定し、データ中心のベンチマークとデータキュレーション、データ属性、知識伝達、推論コンテキスト化をカバーします。
論文 参考訳(メタデータ) (2024-06-20T16:34:07Z) - Path-Specific Causal Reasoning for Fairness-aware Cognitive Diagnosis [45.935488572673215]
我々は,学生の感性的属性を排除するために,新しいパス特化因果推論フレームワーク(PSCRF)を設計する。
実世界のデータセット(例えば、PISAデータセット)に対する大規模な実験は、提案したPSCRFの有効性を実証する。
論文 参考訳(メタデータ) (2024-06-05T08:47:30Z) - State-of-the-Art Approaches to Enhancing Privacy Preservation of Machine Learning Datasets: A Survey [0.0]
本稿では、機械学習(ML)の進化する展望と、その様々な分野における大きな影響について考察する。
プライバシ保護機械学習(PPML)の新たな分野に焦点を当てている。
MLアプリケーションは、通信、金融技術、監視といった産業にとってますます不可欠なものになりつつあるため、プライバシー上の懸念が高まる。
論文 参考訳(メタデータ) (2024-02-25T17:31:06Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Virtual Harassment, Real Understanding: Using a Serious Game and
Bayesian Networks to Study Cyberbullying [0.9246281666115259]
本研究は,データ収集と教育のための非侵襲的なツールとして,真剣なゲームを活用する,革新的なアプローチを探求する。
本ゲームを用いた予備試験では,従来の人口統計調査や心理調査よりも有望な結果が得られた。
論文 参考訳(メタデータ) (2023-09-15T14:30:28Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - A Review of Privacy-preserving Federated Learning for the
Internet-of-Things [3.3517146652431378]
この研究は、分散データ上で機械学習を実行するためのアプローチとして、フェデレーション学習をレビューした。
ユーザ生成データのプライバシ保護と,データ転送に伴う通信コストの削減を目的としている。
フェデレート学習に適用される様々な手法の長所と短所を同定する。
論文 参考訳(メタデータ) (2020-04-24T15:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。