論文の概要: Predicting ChatGPT Use in Assignments: Implications for AI-Aware Assessment Design
- arxiv url: http://arxiv.org/abs/2508.12013v1
- Date: Sat, 16 Aug 2025 11:09:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.512326
- Title: Predicting ChatGPT Use in Assignments: Implications for AI-Aware Assessment Design
- Title(参考訳): 割り当てにおけるChatGPTの使用予測:AI対応アセスメント設計における意味
- Authors: Surajit Das, Aleksei Eliseev,
- Abstract要約: この研究は、ChatGPTを新しい概念の学習に頻繁に使うことは、潜在的過度に相関していることを示している。
我々は、イノベーションと学術的厳密さのバランスをとるために、規律に特有なガイドラインと再考された評価戦略を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of generative AI tools like ChatGPT has significantly reshaped education, sparking debates about their impact on learning outcomes and academic integrity. While prior research highlights opportunities and risks, there remains a lack of quantitative analysis of student behavior when completing assignments. Understanding how these tools influence real-world academic practices, particularly assignment preparation, is a pressing and timely research priority. This study addresses this gap by analyzing survey responses from 388 university students, primarily from Russia, including a subset of international participants. Using the XGBoost algorithm, we modeled predictors of ChatGPT usage in academic assignments. Key predictive factors included learning habits, subject preferences, and student attitudes toward AI. Our binary classifier demonstrated strong predictive performance, achieving 80.1\% test accuracy, with 80.2\% sensitivity and 79.9\% specificity. The multiclass classifier achieved 64.5\% test accuracy, 64.6\% weighted precision, and 64.5\% recall, with similar training scores, indicating potential data scarcity challenges. The study reveals that frequent use of ChatGPT for learning new concepts correlates with potential overreliance, raising concerns about long-term academic independence. These findings suggest that while generative AI can enhance access to knowledge, unchecked reliance may erode critical thinking and originality. We propose discipline-specific guidelines and reimagined assessment strategies to balance innovation with academic rigor. These insights can guide educators and policymakers in ethically and effectively integrating AI into education.
- Abstract(参考訳): ChatGPTのような生成的AIツールの台頭は、教育を大きく変え、学習結果と学術的完全性に対する彼らの影響に関する議論を巻き起こした。
これまでの研究では、機会とリスクが強調されていたが、課題完了時の学生行動の定量的分析が不足している。
これらのツールが現実世界の学術的実践、特に課題準備にどのように影響するかを理解することは、プレッシャーとタイムリーな研究の優先事項である。
本研究は,ロシアを中心に388人の大学生を対象に,国際参加者のサブセットを含む調査回答を分析した結果,このギャップに対処するものである。
XGBoostアルゴリズムを用いて、学術課題におけるChatGPT使用量の予測をモデル化した。
主な予測要因は、学習習慣、主観的嗜好、AIに対する学生の態度であった。
両分類器は高い予測性能を示し, 80.1\% の精度, 80.2\% の感度, 79.9\% の特異性を示した。
マルチクラス分類器は64.5\%のテスト精度、64.6\%の重み付け精度、および64.5\%のリコールを達成した。
この研究は、ChatGPTを新しい概念の学習に頻繁に使うことは、潜在的に過度な信頼と相関し、長期的な学術的独立への懸念を提起している。
これらの結果は、生成的AIは知識へのアクセスを高めることができるが、未確認の信頼は批判的思考と独創性を損なう可能性があることを示唆している。
我々は、イノベーションと学術的厳密さのバランスをとるために、規律に特有なガイドラインと再考された評価戦略を提案する。
これらの洞察は、倫理的にかつ効果的にAIを教育に統合する教育者や政策立案者を導くことができる。
関連論文リスト
- Adapting University Policies for Generative AI: Opportunities, Challenges, and Policy Solutions in Higher Education [1.2691047660244332]
生成的人工知能(AI)ツールの急速な普及は、高等教育における変革の時代を後押ししている。
この記事では、生成AIがもたらす機会を批判的に検討し、それらがもたらす多面的課題を探求し、堅牢なポリシーソリューションの概要を述べる。
論文 参考訳(メタデータ) (2025-06-27T13:49:02Z) - Beyond Detection: Designing AI-Resilient Assessments with Automated Feedback Tool to Foster Critical Thinking [0.0]
本研究は, 検出ではなく, 評価設計に基づく能動的AIレジリエントソリューションを提案する。
WebベースのPythonツールで、Bloomの分類と高度な自然言語処理技術を統合する。
これは、タスクがリコールや要約のような下位の思考や、分析、評価、作成といった上位のスキルを目標にしているかどうかを教育者が判断するのに役立つ。
論文 参考訳(メタデータ) (2025-03-30T23:13:00Z) - Analyzing the Impact of AI Tools on Student Study Habits and Academic Performance [0.0]
この研究は、AIツールがパーソナライズされた学習、適応テスト調整をサポートし、リアルタイムの教室分析を提供する方法に焦点を当てている。
学生のフィードバックはこれらの特徴に対する強い支持を示し、GPAの増加とともに研究時間を大幅に短縮した。
これらのメリットにもかかわらず、AIへの過度依存や、AIと従来の教育方法を統合することの難しさといった課題も特定された。
論文 参考訳(メタデータ) (2024-12-03T04:51:57Z) - Could ChatGPT get an Engineering Degree? Evaluating Higher Education Vulnerability to AI Assistants [176.39275404745098]
我々は,2つのAIアシスタントであるGPT-3.5とGPT-4が適切な回答を得られるかどうかを評価する。
GPT-4は65.8%の質問を正解し、85.1%の質問に対して少なくとも1つの手順で正しい答えを出すことができる。
この結果から,AIの進歩を踏まえて,高等教育におけるプログラムレベルの評価設計の見直しが求められた。
論文 参考訳(メタデータ) (2024-08-07T12:11:49Z) - Path-Specific Causal Reasoning for Fairness-aware Cognitive Diagnosis [45.935488572673215]
我々は,学生の感性的属性を排除するために,新しいパス特化因果推論フレームワーク(PSCRF)を設計する。
実世界のデータセット(例えば、PISAデータセット)に対する大規模な実験は、提案したPSCRFの有効性を実証する。
論文 参考訳(メタデータ) (2024-06-05T08:47:30Z) - The Evolution of Learning: Assessing the Transformative Impact of Generative AI on Higher Education [0.0]
ChatGPTのような生成人工知能モデルは人気が高まっている。
本研究では,GAIが大学生や高等教育機関に与える影響について検討する。
論文 参考訳(メタデータ) (2024-04-16T13:19:57Z) - Student Mastery or AI Deception? Analyzing ChatGPT's Assessment
Proficiency and Evaluating Detection Strategies [1.633179643849375]
ChatGPTのような生成AIシステムは、学習と評価に破壊的な影響を及ぼす。
本研究では,ChatGPTを3つのコースに分けて評価することで,ChatGPTの性能を評価する。
論文 参考訳(メタデータ) (2023-11-27T20:10:13Z) - Evaluating General-Purpose AI with Psychometrics [43.85432514910491]
本稿では,大規模言語モデルなどの汎用AIシステムの包括的かつ正確な評価の必要性について論じる。
現在の評価手法は、主に特定のタスクのベンチマークに基づいており、これらの汎用AIシステムを適切に評価するには不十分である。
これらの課題に対処するため,タスク指向評価から構成指向評価への移行を提案する。
論文 参考訳(メタデータ) (2023-10-25T05:38:38Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Personalized Education in the AI Era: What to Expect Next? [76.37000521334585]
パーソナライズ学習の目的は、学習者の強みに合致する効果的な知識獲得トラックをデザインし、目標を達成するために弱みをバイパスすることである。
近年、人工知能(AI)と機械学習(ML)の隆盛は、パーソナライズされた教育を強化するための新しい視点を広げています。
論文 参考訳(メタデータ) (2021-01-19T12:23:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。