論文の概要: Do Students Rely on AI? Analysis of Student-ChatGPT Conversations from a Field Study
- arxiv url: http://arxiv.org/abs/2508.20244v1
- Date: Wed, 27 Aug 2025 20:00:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:01.781737
- Title: Do Students Rely on AI? Analysis of Student-ChatGPT Conversations from a Field Study
- Title(参考訳): 学生はAIに頼っているか? : フィールドスタディによる学生チャットGPT会話の分析
- Authors: Jiayu Zheng, Lingxin Hao, Kelun Lu, Ashi Garg, Mike Reese, Melo-Jean Yap, I-Jeng Wang, Xingyun Wu, Wenrui Huang, Jenna Hoffman, Ariane Kelly, My Le, Ryan Zhang, Yanyu Lin, Muhammad Faayez, Anqi Liu,
- Abstract要約: 本研究は,各種STEMコースにおける簡単なクイズベースシナリオにおける315人の学生とAIの会話を分析した。
学生は全体としてAIへの依存度が低く、多くの学生は学習にAIを効果的に利用できなかった。
特定の行動メトリクスは、AIへの依存を強く予測し、AIの採用を説明する潜在的な行動メカニズムを強調します。
- 参考スコア(独自算出の注目度): 10.71612026319996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study explores how college students interact with generative AI (ChatGPT-4) during educational quizzes, focusing on reliance and predictors of AI adoption. Conducted at the early stages of ChatGPT implementation, when students had limited familiarity with the tool, this field study analyzed 315 student-AI conversations during a brief, quiz-based scenario across various STEM courses. A novel four-stage reliance taxonomy was introduced to capture students' reliance patterns, distinguishing AI competence, relevance, adoption, and students' final answer correctness. Three findings emerged. First, students exhibited overall low reliance on AI and many of them could not effectively use AI for learning. Second, negative reliance patterns often persisted across interactions, highlighting students' difficulty in effectively shifting strategies after unsuccessful initial experiences. Third, certain behavioral metrics strongly predicted AI reliance, highlighting potential behavioral mechanisms to explain AI adoption. The study's findings underline critical implications for ethical AI integration in education and the broader field. It emphasizes the need for enhanced onboarding processes to improve student's familiarity and effective use of AI tools. Furthermore, AI interfaces should be designed with reliance-calibration mechanisms to enhance appropriate reliance. Ultimately, this research advances understanding of AI reliance dynamics, providing foundational insights for ethically sound and cognitively enriching AI practices.
- Abstract(参考訳): 本研究は,AI導入の信頼度と予測因子に着目し,大学生が生成的AI(ChatGPT-4)とどのように相互作用するかを考察する。
本研究は,ChatGPT導入の初期段階において,学生がツールに慣れていない場合に,様々なSTEMコースにおける短時間のクイズに基づくシナリオにおいて,315人の学生とAIの会話を分析した。
学生の信頼パターンを捉え、AI能力、妥当性、養子縁組、最終回答の正しさを区別する新しい4段階の依存分類法が導入された。
3つの発見がある。
まず、学生はAIへの依存度が低く、多くの学生は学習にAIを効果的に利用できなかった。
第二に、ネガティブな信頼パターンはしばしば相互作用を通して持続し、最初の経験が失敗した後に効果的に戦略を変えることの難しさを浮き彫りにした。
第三に、特定の行動指標はAIへの依存を強く予測し、AIの採用を説明する潜在的な行動メカニズムを強調している。
この研究の結果は、教育と幅広い分野における倫理的AIの統合に対する批判的な意味を浮き彫りにしている。
生徒の親しみを深め、AIツールを効果的に活用するために、搭載プロセスの強化の必要性を強調している。
さらに、AIインターフェースは、適切な信頼を高めるために、依存度校正メカニズムで設計されるべきである。
最終的に、この研究はAI依存のダイナミクスの理解を深め、倫理的に健全で認知的にリッチなAIプラクティスの基礎的な洞察を提供する。
関連論文リスト
- AI Literacy as a Key Driver of User Experience in AI-Powered Assessment: Insights from Socratic Mind [2.0272430076690027]
本研究では,学生のAIリテラシーと,それ以前のAI技術への露出が,ソクラティックマインドに対する認識をいかに形作るかを検討する。
コンピュータサイエンス・ビジネスコースの309人の学部生のデータを収集した。
論文 参考訳(メタデータ) (2025-07-29T10:11:24Z) - ChatGPT produces more "lazy" thinkers: Evidence of cognitive engagement decline [0.0]
本研究では,生成型人工知能(AI)ツールが学術書記作業における学生の認知活動に与える影響について検討した。
その結果,ChatGPT群ではコントロール群に比べて認知エンゲージメントスコアが有意に低かった。
これらの結果は、AI支援が認知的オフロードにつながる可能性があることを示唆している。
論文 参考訳(メタデータ) (2025-06-30T18:41:50Z) - Evaluating AI-Powered Learning Assistants in Engineering Higher Education: Student Engagement, Ethical Challenges, and Policy Implications [0.2812395851874055]
本研究では、AIを活用した学習フレームワークである教育AIハブを、大規模なR1公立大学の学部・環境工学コースで活用することを評価する。
学生たちは、AIアシスタントの利便性と快適さを高く評価し、AIツールの使用の容易さを報告している。
多くの学生はAIの使用を倫理的に許容できると見なしたが、制度的な政策や潜在的な学術的不正に対する理解について不確実性を示した。
論文 参考訳(メタデータ) (2025-06-06T03:02:49Z) - Let people fail! Exploring the influence of explainable virtual and robotic agents in learning-by-doing tasks [45.23431596135002]
本研究は,古典的対パートナー意識による説明が学習作業中の人間の行動とパフォーマンスに与える影響を比較検討した。
その結果, パートナー意識による説明は, 関係する人工エージェントの種類によって, 参加者に異なる影響を及ぼした。
論文 参考訳(メタデータ) (2024-11-15T13:22:04Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Learning to Prompt in the Classroom to Understand AI Limits: A pilot
study [35.06607166918901]
大規模言語モデル(LLM)と、ChatGPTのような派生したチャットボットは、AIシステムの自然言語処理能力を大幅に改善した。
しかし、AI手法が顕著な貢献を示しているにもかかわらず、興奮は否定的な感情を引き起こしている。
パイロット教育は21人の生徒を抱えた高校で実施された。
論文 参考訳(メタデータ) (2023-07-04T07:51:37Z) - Assigning AI: Seven Approaches for Students, with Prompts [0.0]
本稿では,Large Language Models(LLM)の教育における転換的役割とその学習ツールとしての可能性について考察する。
AI-tutor、AI-coach、AI-mentor、AI-teammate、AI-tool、AI-simulator、AI-studentの7つのアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-13T03:36:36Z) - Is AI Changing the Rules of Academic Misconduct? An In-depth Look at
Students' Perceptions of 'AI-giarism' [0.0]
本研究は,AIと盗作を包含する学問的不正行為の創発的形態である,AI-giarismに対する学生の認識を探求する。
この発見は、AIコンテンツ生成に対する明確な不承認を伴う、複雑な理解の風景を描いている。
この研究は、学術、政策立案、そして教育におけるAI技術のより広範な統合に関する重要な洞察を提供する。
論文 参考訳(メタデータ) (2023-06-06T02:22:08Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。