論文の概要: Students' Information Privacy Concerns in Learning Analytics: Towards a
Model Development
- arxiv url: http://arxiv.org/abs/2109.00068v1
- Date: Tue, 31 Aug 2021 20:32:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 16:01:22.266815
- Title: Students' Information Privacy Concerns in Learning Analytics: Towards a
Model Development
- Title(参考訳): 学習分析における学生の情報プライバシー問題--モデル開発に向けて
- Authors: Chantal Mutimukwe, Jean Damascene Twizeyimana, Olga Viberg
- Abstract要約: 本研究では,学習分析(LA)に関する学生の情報プライバシー問題(IPC)を理解するための理論的モデルを提案する。
我々は、ICCを、プライバシーの脆弱性の認識とプライバシーのコントロールの認識と、その影響、信念の信頼と自己開示行動の2つの先行する部分の中央構造として検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The widespread interest in learning analytics (LA) is associated with
increased availability of and access to student data where students' actions
are monitored, collected, stored and analysed. The availability and analysis of
such data is argued to be crucial for improved learning and teaching. Yet,
these data can be exposed to misuse, for example to be used for commercial
purposes, consequently, resulting in information privacy concerns (IPC) of
students who are the key stakeholders and data subjects in the LA context. The
main objective of this study is to propose a theoretical model to understand
the IPC of students in relation to LA. We explore the IPC as a central
construct between its two antecedents: perceived privacy vulnerability and
perceived privacy control, and its consequences, trusting beliefs and
self-disclosure behavior. Although these relationships have been investigated
in other contexts, this study aims to offer mainly theoretical insights on how
these relationships may be shaped in the context of LA in higher education.
Understanding students' IPC, the related root causes and consequences in LA is
the key step to a more comprehensive understanding of privacy issues and the
development of effective privacy practices that would protect students' privacy
in the evolving setting of data-driven higher education.
- Abstract(参考訳): 学習分析(LA)に対する幅広い関心は、学生の行動を監視し、収集し、保存し、分析する学生データへのアクセスと利用の増加に関連している。
このようなデータの可用性と分析は、学習と教育の改善に不可欠である。
しかし、例えば商業目的に使用するために、これらのデータは誤用にさらされる可能性があるため、laコンテキストにおける主要な利害関係者やデータ科目である学生のipc(information privacy concerns)が発生します。
本研究の目的は,LAに関する学生のIPCを理解するための理論的モデルを提案することである。
プライバシの脆弱性と認識されるプライバシコントロール,その影響,信念の信頼,自己開示行動という2つの先行概念の中間構造として,ipcを考察する。
これらの関係は他の文脈で研究されているが、高等教育におけるlaの文脈においてこれらの関係がどのように形成されるかに関する理論的知見を主に提供することを目的としている。
LAにおける学生のIPC、関連する根本原因と結果を理解することは、データ駆動高等教育の進化において生徒のプライバシを保護する効果的なプライバシプラクティスの開発と、より包括的なプライバシー問題を理解するための重要なステップである。
関連論文リスト
- Human-Centered Privacy Research in the Age of Large Language Models [31.379232599019915]
このSIGは、使用可能なセキュリティとプライバシ、人間とAIのコラボレーション、NLP、その他の関連するドメインの背景を持つ研究者を集めて、この問題に対する見解と経験を共有することを目的としている。
論文 参考訳(メタデータ) (2024-02-03T02:32:45Z) - Privacy as Contextual Integrity in Online Proctoring Systems in Higher
Education: A Scoping Review [0.0]
プライバシーは、高等教育におけるオンライン・プロクタリング・システムの導入と実装における重要な課題の1つだ。
この研究は、これらの原則をどのように実装し、持続するかを明確にする必要性を通知する。
論文 参考訳(メタデータ) (2023-10-28T19:35:39Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Virtual Harassment, Real Understanding: Using a Serious Game and
Bayesian Networks to Study Cyberbullying [0.9246281666115259]
本研究は,データ収集と教育のための非侵襲的なツールとして,真剣なゲームを活用する,革新的なアプローチを探求する。
本ゲームを用いた予備試験では,従来の人口統計調査や心理調査よりも有望な結果が得られた。
論文 参考訳(メタデータ) (2023-09-15T14:30:28Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - On the Privacy Effect of Data Enhancement via the Lens of Memorization [20.27379983653372]
我々は,記憶化という新たな視点からプライバシを調査することを提案する。
機械学習モデルの3つの重要な特性間の関係について、非自明な知見を公表する。
論文 参考訳(メタデータ) (2022-08-17T13:02:17Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Which Mutual-Information Representation Learning Objectives are
Sufficient for Control? [80.2534918595143]
相互情報は、データの表現を学習するために魅力的な形式を提供する。
本稿では,最適政策の学習と表現のための状態表現の十分性について定式化する。
意外なことに、これらの2つの目的は、MDPの構造に関する軽度で一般的な仮定を前提に、不十分な表現をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-06-14T10:12:34Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - A Review of Privacy-preserving Federated Learning for the
Internet-of-Things [3.3517146652431378]
この研究は、分散データ上で機械学習を実行するためのアプローチとして、フェデレーション学習をレビューした。
ユーザ生成データのプライバシ保護と,データ転送に伴う通信コストの削減を目的としている。
フェデレート学習に適用される様々な手法の長所と短所を同定する。
論文 参考訳(メタデータ) (2020-04-24T15:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。