論文の概要: AI Misuse in Education Is a Measurement Problem: Toward a Learning Visibility Framework
- arxiv url: http://arxiv.org/abs/2603.07834v1
- Date: Sun, 08 Mar 2026 22:35:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.31341
- Title: AI Misuse in Education Is a Measurement Problem: Toward a Learning Visibility Framework
- Title(参考訳): 教育におけるAIの誤用は測定の問題である:学習可視性フレームワークを目指して
- Authors: Eduardo Davalos, Yike Zhang,
- Abstract要約: 本稿では、学習過程における可視性の喪失に起因した測定問題として、AIの教育における誤用を再考する。
このフレームワークは、監視を促進するのではなく、透明性を強調し、教室環境における倫理的AI統合の基礎として証拠を共有している。
- 参考スコア(独自算出の注目度): 2.3412211209700997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid integration of conversational AI systems into educational settings has intensified ethical concerns about academic integrity, fairness, and students' cognitive development. Institutional responses have largely centered on AI detection tools and restrictive policies, yet such approaches have proven unreliable and ethically contentious. This paper reframes AI misuse in education not primarily as a detection problem, but as a measurement problem rooted in the loss of visibility into the learning process. When AI enters the assessment loop, educators often retain access to final outputs but lose valuable insight into how those outputs were produced. Drawing on research in cognitive offloading, learning analytics, and multimodal timeline reconstruction, we propose the Learning Visibility Framework, grounded in three principles: clear specification and modeling of acceptable AI use, recognition of learning processes as assessable evidence alongside outcomes, and the establishment of transparent timelines of student activity. Rather than promoting surveillance, the framework emphasizes transparency and shared evidence as foundations for ethical AI integration in classroom settings. By shifting focus from adversarial detection toward process visibility, this work offers a principled pathway for aligning AI use with educational values while preserving trust and transparency between students and educators
- Abstract(参考訳): 会話型AIシステムの教育環境への迅速な統合は、学術的完全性、公正性、学生の認知的発達に関する倫理的懸念を強めている。
制度的な対応は主にAI検出ツールと制限的なポリシーに重点を置いているが、そのようなアプローチは信頼性が低く倫理的に競合的であることが証明されている。
本稿では、主に検出問題としてではなく、学習過程における可視性の喪失に根ざした測定問題として、AIの教育における誤用を再考する。
AIがアセスメントループに入ると、教育者は最終的なアウトプットへのアクセスを維持するが、それらのアウトプットの作り方に関する貴重な洞察を失う。
認知的オフロード、学習分析、マルチモーダルタイムライン再構築の研究に基づいて、受理可能なAI使用の明確な仕様とモデリング、学習プロセスの認識を結果と共に評価可能なエビデンスとして、学生活動の透明なタイムラインの確立という3つの原則に基づく学習可視性フレームワークを提案する。
このフレームワークは、監視を促進するのではなく、透明性を強調し、教室環境における倫理的AI統合の基礎として証拠を共有している。
敵対的検出からプロセスの可視性へと焦点を移すことにより、この研究は、学生と教育者の間の信頼と透明性を維持しながら、AI使用と教育的価値を整合させる、原則化された経路を提供する。
関連論文リスト
- Who Is Doing the Thinking? AI as a Dynamic Cognitive Partner: A Learner-Informed Framework [0.0]
本研究では,AIを動的認知パートナーとして位置づけるフレームワークを提案する。
学習者がAIを認識と協調するものとして記述した,9つの相互関連次元を同定した。
学生は、理解を拡大する生産的支援と、認知的努力に取って代わる非生産的依存とを区別し、AIがいつ使われるべきか、使用すべきでないかを状況的認識を示す。
論文 参考訳(メタデータ) (2026-02-17T15:07:06Z) - Safeguarding Privacy: Privacy-Preserving Detection of Mind Wandering and Disengagement Using Federated Learning in Online Education [53.25191965774678]
遠隔学習における行動・認知障害の相違に対処するために,デバイス間フェデレーション学習を利用したフレームワークを提案する。
顔の表情と視線特徴を用いた映像ベース認知解離検出モデルに適合する。
以上の結果から,学習者のエンゲージメントを促進するプライバシー保護教育技術への大きな期待が示された。
論文 参考訳(メタデータ) (2026-02-10T15:40:01Z) - AI-Educational Development Loop (AI-EDL): A Conceptual Framework to Bridge AI Capabilities with Classical Educational Theories [8.500617875591633]
本研究では、古典的学習理論とAIを融合した理論駆動型フレームワークであるAI-Educational Development Loop(AI-EDL)を紹介する。
このフレームワークは透明性、自己統制型学習、教育的監視を強調している。
論文 参考訳(メタデータ) (2025-08-01T15:44:19Z) - Evaluating AI-Powered Learning Assistants in Engineering Higher Education: Student Engagement, Ethical Challenges, and Policy Implications [0.2099922236065961]
本研究は、大規模R1公立大学の学部・環境工学コースで実施されているAIを活用した学習フレームワークである教育AIハブを評価する。
学生たちは、AIアシスタントのアクセシビリティと快適さを高く評価し、インストラクターやアシスタントの助けを求めるよりも、利用の容易さを報告している。
倫理的不確実性、特に制度政策と学術的整合性は、フルエンゲージメントの鍵となる障壁として現れた。
論文 参考訳(メタデータ) (2025-06-06T03:02:49Z) - Fairness in Reinforcement Learning with Bisimulation Metrics [45.674943127750595]
公平さを考慮せずに報酬を最大化することにより、AIエージェントはグループや個人の扱いに格差を導入することができる。
そこで本研究では,バイシミュレーションのメトリクスを利用して報酬関数と観測ダイナミクスを学習する手法を提案する。
論文 参考訳(メタデータ) (2024-12-22T18:23:06Z) - Benchmarking Vision Language Model Unlearning via Fictitious Facial Identity Dataset [92.99416966226724]
我々は、未学習アルゴリズムの有効性を頑健に評価するために設計された新しいVLMアンラーニングベンチマークであるFacial Identity Unlearning Benchmark (FIUBench)を紹介する。
情報ソースとその露出レベルを正確に制御する2段階評価パイプラインを適用した。
FIUBench 内の 4 つのベースライン VLM アンラーニングアルゴリズムの評価により,すべての手法がアンラーニング性能に制限されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-11-05T23:26:10Z) - FairAIED: Navigating Fairness, Bias, and Ethics in Educational AI Applications [8.443431821420537]
教育におけるAIの統合は、学習経験をパーソナライズし、教育実践を変革する大きな可能性を秘めている。
研究者がこれらのバイアスを理解して緩和しようとすると、教育AIの公平性を調べる研究が増えている。
この調査は、教育AIにおけるアルゴリズムフェアネスの総合的な体系的なレビューを提供する。
論文 参考訳(メタデータ) (2024-07-26T13:59:20Z) - The Rise of Artificial Intelligence in Educational Measurement: Opportunities and Ethical Challenges [2.569083526579529]
教育におけるAIは、妥当性、信頼性、透明性、公平性、公平性に関する倫理的な懸念を提起する。
教育者、政策立案者、組織を含む様々な利害関係者は、教育における倫理的AIの使用を保証するガイドラインを開発した。
本稿では,AIを活用したツールの教育測定における倫理的意義について検討する。
論文 参考訳(メタデータ) (2024-06-27T05:28:40Z) - Learning to Prompt in the Classroom to Understand AI Limits: A pilot
study [35.06607166918901]
大規模言語モデル(LLM)と、ChatGPTのような派生したチャットボットは、AIシステムの自然言語処理能力を大幅に改善した。
しかし、AI手法が顕著な貢献を示しているにもかかわらず、興奮は否定的な感情を引き起こしている。
パイロット教育は21人の生徒を抱えた高校で実施された。
論文 参考訳(メタデータ) (2023-07-04T07:51:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。