論文の概要: Humanizing AI Grading: Student-Centered Insights on Fairness, Trust, Consistency and Transparency
- arxiv url: http://arxiv.org/abs/2602.07754v1
- Date: Sun, 08 Feb 2026 01:18:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.787852
- Title: Humanizing AI Grading: Student-Centered Insights on Fairness, Trust, Consistency and Transparency
- Title(参考訳): AIグレーディングの人間化 - 公正性、信頼、一貫性、透明性に関する学生中心の視点
- Authors: Bahare Riahi, Veronica Catete,
- Abstract要約: 本研究では,学部コンピュータサイエンス科における人工知能(AI)学習システムに対する学生の認識について検討する。
発見は、AIの文脈的理解とパーソナライゼーションの欠如に関する懸念を明らかにする。
この研究は、学生の声を増幅し、デザインされた学習環境でAIを人間化するための設計原則を提供することにより、倫理中心のアセスメントプラクティスに寄与する。
- 参考スコア(独自算出の注目度): 0.6138671548064355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study investigates students' perceptions of Artificial Intelligence (AI) grading systems in an undergraduate computer science course (n = 27), focusing on a block-based programming final project. Guided by the ethical principles framework articulated by Jobin (2019), our study examines fairness, trust, consistency, and transparency in AI grading by comparing AI-generated feedback with original human-graded feedback. Findings reveal concerns about AI's lack of contextual understanding and personalization. We recommend that equitable and trustworthy AI systems reflect human judgment, flexibility, and empathy, serving as supplementary tools under human oversight. This work contributes to ethics-centered assessment practices by amplifying student voices and offering design principles for humanizing AI in designed learning environments.
- Abstract(参考訳): 本研究では,ブロック型プログラミング最終プロジェクトに焦点をあて,学部コンピュータサイエンス科目(n = 27)における人工知能(AI)グレーディングシステムに対する学生の認識について検討する。
Jobin氏(2019)によって書かれた倫理的原則フレームワークによってガイドされた本研究では、AI生成フィードバックと人格フィードバックを比較して、AIグレーティングの公平性、信頼、一貫性、透明性について検討する。
発見は、AIの文脈的理解とパーソナライゼーションの欠如に関する懸念を明らかにする。
公平で信頼性の高いAIシステムは、人間の判断、柔軟性、共感を反映し、人間の監視の下で補助的なツールとして機能することを推奨します。
この研究は、学生の声を増幅し、デザインされた学習環境でAIを人間化するための設計原則を提供することにより、倫理中心のアセスメントプラクティスに寄与する。
関連論文リスト
- The Workflow as Medium: A Framework for Navigating Human-AI Co-Creation [0.0]
クリエイティブインテリジェンスループ(CIL、Creative Intelligence Loop)は、人間とAIの共創に責任を負うための新しい社会技術フレームワークである。
CILは、多様なAIチームメイトの戦略的統合を導く、動的な人間-AIコラボレーションのための規律付き構造を提案する。
CILは、2つのグラフィックノベルラの実践による創造によって実証的に実証された。
論文 参考訳(メタデータ) (2025-11-22T20:36:13Z) - Bridging Minds and Machines: Toward an Integration of AI and Cognitive Science [48.38628297686686]
認知科学は人工知能(AI)、哲学、心理学、神経科学、言語学、文化などの分野を深く形成している。
AIの多くのブレークスルーは、そのルーツを認知理論にさかのぼる一方で、AI自体が認知研究を進めるのに欠かせないツールになっている。
我々は、認知科学におけるAIの未来は、性能の向上だけでなく、人間の心の理解を深めるシステムの構築にも関係していると主張している。
論文 参考訳(メタデータ) (2025-08-28T11:26:17Z) - The next question after Turing's question: Introducing the Grow-AI test [51.56484100374058]
本研究は,GROW-AIと呼ばれる人工知能評価の枠組みを拡張することを目的としている。
GROW-AIは、チューリングテストの自然な後継者である"Can Machine grow up?
この作品の独創性は、人間の世界から人工知能への「成長」過程の概念的な変換にある。
論文 参考訳(メタデータ) (2025-08-22T10:19:42Z) - AI-Educational Development Loop (AI-EDL): A Conceptual Framework to Bridge AI Capabilities with Classical Educational Theories [8.500617875591633]
本研究では、古典的学習理論とAIを融合した理論駆動型フレームワークであるAI-Educational Development Loop(AI-EDL)を紹介する。
このフレームワークは透明性、自己統制型学習、教育的監視を強調している。
論文 参考訳(メタデータ) (2025-08-01T15:44:19Z) - AI Literacy as a Key Driver of User Experience in AI-Powered Assessment: Insights from Socratic Mind [2.0272430076690027]
本研究では,学生のAIリテラシーと,それ以前のAI技術への露出が,ソクラティックマインドに対する認識をいかに形作るかを検討する。
コンピュータサイエンス・ビジネスコースの309人の学部生のデータを収集した。
論文 参考訳(メタデータ) (2025-07-29T10:11:24Z) - Evaluating AI-Powered Learning Assistants in Engineering Higher Education: Student Engagement, Ethical Challenges, and Policy Implications [0.2099922236065961]
本研究は、大規模R1公立大学の学部・環境工学コースで実施されているAIを活用した学習フレームワークである教育AIハブを評価する。
学生たちは、AIアシスタントのアクセシビリティと快適さを高く評価し、インストラクターやアシスタントの助けを求めるよりも、利用の容易さを報告している。
倫理的不確実性、特に制度政策と学術的整合性は、フルエンゲージメントの鍵となる障壁として現れた。
論文 参考訳(メタデータ) (2025-06-06T03:02:49Z) - Tracing the Invisible: Understanding Students' Judgment in AI-Supported Design Work [2.8038082486377114]
本研究では、HCIデザインコースの33名の学生チームからの反射を分析し、AIツールを使用する際の学生の判断方法を検討する。
確立した設計判断形式(器楽曲,評価,品質など)と創発型(エージェント分配判定,信頼性判定)の両方を見出した。
我々の研究結果は、生成型AIがデザイン推論に新しい複雑なレイヤーを導入し、学生がいつどのように依存するかを反映するよう促すことを示唆している。
論文 参考訳(メタデータ) (2025-05-13T20:08:10Z) - Immersion for AI: Immersive Learning with Artificial Intelligence [0.0]
この研究は、人工知能(AI)の観点から、Immersionが意味するところを反映している。
没入型学習理論のレンズを適用して、この新しい視点が認知生態学におけるAIの関与の方法をサポートするかどうかを理解する。
論文 参考訳(メタデータ) (2025-02-05T11:51:02Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Position: Towards Bidirectional Human-AI Alignment [109.57781720848669]
我々は、人間とAIの双方向的・動的関係を説明するために、研究コミュニティは「調整」を明確に定義し、批判的に反映すべきであると主張する。
このフレームワークは、AIと人間の価値を整合させる従来の取り組みを取り入れているだけでなく、人間とAIを整合させるという、重要で未解明の次元も導入しています。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。