論文の概要: A Review of Generative AI in Computer Science Education: Challenges and Opportunities in Accuracy, Authenticity, and Assessment
- arxiv url: http://arxiv.org/abs/2507.11543v1
- Date: Tue, 17 Jun 2025 19:20:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-20 22:54:22.110959
- Title: A Review of Generative AI in Computer Science Education: Challenges and Opportunities in Accuracy, Authenticity, and Assessment
- Title(参考訳): コンピュータサイエンス教育における生成AIの展望 : 正確性、正当性、評価における課題と機会
- Authors: Iman Reihanian, Yunfei Hou, Yu Chen, Yifei Zheng,
- Abstract要約: 本稿では、コンピュータサイエンス教育におけるChatGPTやClaudeといったジェネレーティブAIツールの利用について調査する。
ジェネレーティブAIは、AI幻覚、エラーの伝播、バイアス、AI支援コンテンツと学生認可コンテンツの間のぼやけた線などの懸念を提起する。
- 参考スコア(独自算出の注目度): 2.1891582280781634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper surveys the use of Generative AI tools, such as ChatGPT and Claude, in computer science education, focusing on key aspects of accuracy, authenticity, and assessment. Through a literature review, we highlight both the challenges and opportunities these AI tools present. While Generative AI improves efficiency and supports creative student work, it raises concerns such as AI hallucinations, error propagation, bias, and blurred lines between AI-assisted and student-authored content. Human oversight is crucial for addressing these concerns. Existing literature recommends adopting hybrid assessment models that combine AI with human evaluation, developing bias detection frameworks, and promoting AI literacy for both students and educators. Our findings suggest that the successful integration of AI requires a balanced approach, considering ethical, pedagogical, and technical factors. Future research may explore enhancing AI accuracy, preserving academic integrity, and developing adaptive models that balance creativity with precision.
- Abstract(参考訳): 本稿では、コンピュータサイエンス教育におけるChatGPTやClaudeといった生成AIツールの利用について、正確性、信頼性、評価の重要な側面に着目して調査する。
文献レビューを通じて、これらのAIツールがもたらす課題と機会の両方を強調します。
Generative AIは効率を改善し、創造的な学生の仕事をサポートするが、AI幻覚、エラーの伝播、バイアス、AI支援されたコンテンツと学生が認可したコンテンツの間の曖昧な線といった懸念を提起する。
これらの懸念に対処するためには、人間の監視が不可欠だ。
既存の文献では、AIと人間の評価を組み合わせたハイブリッドアセスメントモデルの採用、バイアス検出フレームワークの開発、学生と教育者の両方に対するAIリテラシーの促進が推奨されている。
我々の研究結果は、AIの統合を成功させるためには、倫理的、教育的、技術的要因を考慮し、バランスのとれたアプローチが必要であることを示唆している。
将来の研究は、AIの精度の向上、学術的整合性維持、創造性と精度のバランスをとる適応モデルの開発を検討できる。
関連論文リスト
- AI Literacy as a Key Driver of User Experience in AI-Powered Assessment: Insights from Socratic Mind [2.0272430076690027]
本研究では,学生のAIリテラシーと,それ以前のAI技術への露出が,ソクラティックマインドに対する認識をいかに形作るかを検討する。
コンピュータサイエンス・ビジネスコースの309人の学部生のデータを収集した。
論文 参考訳(メタデータ) (2025-07-29T10:11:24Z) - A Inteligência Artificial Generativa no Ecossistema Acadêmico: Uma Análise de Aplicações, Desafios e Oportunidades para a Pesquisa, o Ensino e a Divulgação Científica [0.0]
高等教育におけるジェネレーティブ・人工知能の迅速かつ破壊的な統合は、基本的な学術的実践を変えつつある。
主な課題は、学術的完全性への脅威、アルゴリズムバイアスのリスク、堅牢なAIリテラシーの必要性である。
学術の未来は、この技術に対する抵抗によって定義されるのではなく、組織や個人が批判的に、倫理的に、創造的にそれに関与する能力によって定義される。
論文 参考訳(メタデータ) (2025-07-03T18:23:18Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Enhancing AI-Driven Education: Integrating Cognitive Frameworks, Linguistic Feedback Analysis, and Ethical Considerations for Improved Content Generation [0.0]
本稿では,4つの関連研究から洞察を合成し,AI駆動型教育ツールの強化のための包括的枠組みを提案する。
我々は、認知アセスメントフレームワーク、AI生成フィードバックの言語分析、倫理設計原則を統合し、効果的で責任のあるAIツールの開発を指導する。
論文 参考訳(メタデータ) (2025-05-01T06:36:21Z) - A Conceptual Exploration of Generative AI-Induced Cognitive Dissonance and its Emergence in University-Level Academic Writing [0.0]
本研究は,認知不協和(CD)のトリガーおよび増幅器として,生成人工知能(GenAI)が果たす役割について考察する。
我々は、AI駆動の効率と、独創性、努力、知的所有権の原則との緊張を浮き彫りにして、GenAIによるCDの仮説的構成を導入する。
我々は、この不協和を緩和するための戦略について議論する。例えば、反射的教育、AIリテラシープログラム、GenAI使用の透明性、規律固有のタスク再設計などである。
論文 参考訳(メタデータ) (2025-02-08T21:31:04Z) - AI in Education: Rationale, Principles, and Instructional Implications [0.0]
ChatGPTのような生成AIは、人間のようなコンテンツを作り、その教育的役割について疑問を呈する。
この研究は、AIが真の認知的努力を補うのではなく、確実に補完する意図的な戦略を強調している。
論文 参考訳(メタデータ) (2024-12-02T14:08:07Z) - Generative AI Literacy: Twelve Defining Competencies [48.90506360377104]
本稿では、生成AIと対話するために必要なスキルと知識領域を網羅した、生成人工知能(AI)リテラシーの能力に基づくモデルを提案する。
能力は、基礎的なAIリテラシーから、倫理的および法的考慮を含むエンジニアリングとプログラミングのスキルの促進まで様々である。
これらの12の能力は、個人、政策立案者、政府高官、教育者が責任を持って生成AIの可能性をナビゲートし活用しようとするための枠組みを提供する。
論文 参考訳(メタデータ) (2024-11-29T14:55:15Z) - The Rise of Artificial Intelligence in Educational Measurement: Opportunities and Ethical Challenges [2.569083526579529]
教育におけるAIは、妥当性、信頼性、透明性、公平性、公平性に関する倫理的な懸念を提起する。
教育者、政策立案者、組織を含む様々な利害関係者は、教育における倫理的AIの使用を保証するガイドラインを開発した。
本稿では,AIを活用したツールの教育測定における倫理的意義について検討する。
論文 参考訳(メタデータ) (2024-06-27T05:28:40Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。