論文の概要: "It's not approved, but many, like myself, ignore the rule": Investigating the Landscape and Consequences of Unsanctioned Technology Use in Educational Institutes
- arxiv url: http://arxiv.org/abs/2504.12536v1
- Date: Wed, 16 Apr 2025 23:55:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:38:11.105778
- Title: "It's not approved, but many, like myself, ignore the rule": Investigating the Landscape and Consequences of Unsanctioned Technology Use in Educational Institutes
- Title(参考訳): 『認可されていないが、私同様、多くは規則を無視している』:教育機関における無認可技術利用の景観と状況の調査
- Authors: Easton Kelso, Ananta Soneji, Syed Zami-Ul-Haque Navid, Yan Soshitaishvili, Sazzadur Rahaman, Rakibul Hasan,
- Abstract要約: 重要なことにもかかわらず、教育者の立場からの採用やリスクを理解することは、ほとんど検討されていない。
本研究は,教育者による494個のユニークな応用,主に教育的有用性について検討した。
また、教育者の3分の1が、無許可の技術利用に関する制度的な方針に気づいていないこともわかりました。
- 参考スコア(独自算出の注目度): 8.785737074008576
- License:
- Abstract: Educators regularly use unsanctioned technologies (apps not formally approved by their institutions) for teaching, grading, and other academic tasks. While these tools often support instructional needs, they raise significant privacy, security, and regulatory compliance concerns. Despite its importance, understanding the adoptions and risks from the perspective of educators, who serve as de facto decision makers behind unsanctioned technology use, is largely understudied in existing literature.To address this gap, we conducted two surveys: one with 375 educators who listed 1,373 unsanctioned apps, and another with 21 administrators who either often help educators to set up educational technologies (EdTechs) or observe their security or privacy incidents. Our study identified 494 unique applications used by educators, primarily for pedagogical utility (n=213) and functional convenience (n=155), and the associated risks were often ignored. In fact, despite security and privacy concerns, many educators continued using the same apps (n = 62), citing a lack of alternatives or heavy dependence as barriers to discontinuation. We also found that fewer than a third of educators were aware of any institutional policy on unsanctioned technology use (K12: 30.3%, HEI: 24.8%), and 22 knowingly violated such policies. While 107 received formal warnings, only 33 adjusted their behavior. Finally, we conclude by discussing the implications of our findings and future recommendations to minimize the risks.
- Abstract(参考訳): 教育者は、教育、学位取得、その他の学術的タスクに、非公認の技術(教育機関によって正式に承認されていないアプリケーション)を定期的に使用する。
これらのツールは、しばしば教育的ニーズをサポートするが、プライバシー、セキュリティ、規制のコンプライアンスに関する懸念を生じさせる。
その重要性にもかかわらず、未承認の技術利用のデファクト意思決定者として機能する教育者の立場から、採用とリスクを理解することは、既存の文献でほとんど検討されていない。このギャップに対処するため、我々は、1,373の未承認アプリをリストアップする375人の教育者と、教育技術(EdTechs)の確立やセキュリティやプライバシのインシデントをよく支援する21人の管理者の2つの調査を行った。
本研究は,教育者による494個のユニークな応用,主に教育的有用性 (n=213) と機能的利便性 (n=155) について検討し,関連するリスクを無視することが多かった。
実際、セキュリティとプライバシーの懸念にもかかわらず、多くの教育者は同じアプリ(n = 62)を使い続けた。
また、無認可技術利用に関する制度政策(K12:30.3%、HEI:24.8%)を意識していた教育者は3分の1以下であり、22人が意識的にそのような方針に違反していることが判明した。
107機は正式な警告を受けたが、行動を調整するのは33機のみであった。
最後に、リスクを最小限に抑えるために、我々の発見と今後の勧告の意義について論じる。
関連論文リスト
- Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - Auto-assessment of assessment: A conceptual framework towards fulfilling the policy gaps in academic assessment practices [4.770873744131964]
英国、アラブ首長国連邦、イラクの3カ国から117人の学者を対象に調査を行った。
我々は、ほとんどの学者が、教育におけるAIについて肯定的な意見を持っていることを確認した。
学生の働きを自律的に評価する新しいAIフレームワークを初めて提案する。
論文 参考訳(メタデータ) (2024-10-28T15:22:37Z) - From Guidelines to Governance: A Study of AI Policies in Education [1.9659095632676098]
本研究は,新興技術に関する政策状況を調べるための調査手法を用いている。
ほとんどの機関は、ChatGPTのようなAIツールの倫理的展開のための特別なガイドラインを欠いている。
高校は高等教育機関よりも政策に取り組む傾向が低い。
論文 参考訳(メタデータ) (2024-03-22T20:07:58Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Generative AI in Higher Education: Seeing ChatGPT Through Universities' Policies, Resources, and Guidelines [11.470910427306569]
本研究は、GenAIの利用に関して、米国トップクラスの大学が確立した学術政策とガイドラインを分析した。
その結果,これらの大学の大部分は,GenAIに対するオープンだが慎重なアプローチを採用していることが示唆された。
発見は、教育実践における教育者に4つの実践的意味を与える。
論文 参考訳(メタデータ) (2023-12-08T18:33:11Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Educators' Perspectives of Using (or Not Using) Online Exam Proctoring [14.885556070794392]
新型コロナウイルス(COVID-19)のパンデミックで教育の状況が変わり、遠隔プロクターツールの利用が増えた。
本研究では,学生のセキュリティとプライバシを遠隔試験の要件とどのようにバランスさせるかを検討する。
論文 参考訳(メタデータ) (2023-02-24T23:50:37Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - A Survey on Reinforcement Learning Security with Application to
Autonomous Driving [23.2255446652987]
強化学習は、機械が自身の経験から学ぶことを可能にする。
自律運転などの安全上重要な用途で使用される。
本稿では,自律運転における強化学習アルゴリズムの適用性について論じる。
論文 参考訳(メタデータ) (2022-12-12T18:50:49Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。