論文の概要: Web vs. LLMs: An Empirical Study of Learning Behaviors of CS2 Students
- arxiv url: http://arxiv.org/abs/2501.11935v2
- Date: Wed, 22 Jan 2025 14:31:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 13:30:34.190237
- Title: Web vs. LLMs: An Empirical Study of Learning Behaviors of CS2 Students
- Title(参考訳): Web vs. LLMs:CS2学生の学習行動に関する実証的研究
- Authors: Aayush Kumar, Daniel Prol, Amin Alipour, Sruti Srinivasa Ragavan,
- Abstract要約: ChatGPTは、プログラミングと関連概念を学習するためのツールとして、高等教育の学生に広く採用されている。
LLMを用いた学習において,学生がどれほど効果的か,どのような戦略が用いられているのかは明らかになっていない。
- 参考スコア(独自算出の注目度): 2.0624236247076406
- License:
- Abstract: LLMs such as ChatGPT have been widely adopted by students in higher education as tools for learning programming and related concepts. However, it remains unclear how effective students are and what strategies students use while learning with LLMs. Since the majority of students' experiences in online self-learning have come through using search engines such as Google, evaluating AI tools in this context can help us address these gaps. In this mixed methods research, we conducted an exploratory within-subjects study to understand how CS2 students learn programming concepts using both LLMs as well as traditional online methods such as educational websites and videos to examine how students approach learning within and across both scenarios. We discovered that students found it easier to learn a more difficult concept using traditional methods than using ChatGPT. We also found that students ask fewer follow-ups and use more keyword-based queries for search engines while their prompts to LLMs tend to explicitly ask for information.
- Abstract(参考訳): ChatGPTのようなLLMは、プログラミングや関連する概念を学ぶためのツールとして、高等教育の学生によって広く採用されている。
しかし,LLM を用いた学習において,学生がどれほど効果的か,どのような戦略を用いているかは明らかになっていない。
オンラインの自己学習における学生のほとんどの経験は、Googleのような検索エンジンで行われているので、この文脈におけるAIツールの評価は、これらのギャップに対処するのに役立ちます。
本研究では,CS2 の学生が LLM と教育用ウェブサイトやビデオなどの従来のオンライン手法を用いてプログラミング概念を学習し,学生が両シナリオをまたいだ学習にどのようにアプローチするかを探索的に検討した。
従来の方法の方がChatGPTよりも難しい概念を学習しやすいことがわかった。
また,LLMへのプロンプトが明示的に情報を求める傾向にあるのに対して,学生はフォローアップを減らし,キーワードベースのクェリを検索エンジンに用いた。
関連論文リスト
- Can We Delegate Learning to Automation?: A Comparative Study of LLM Chatbots, Search Engines, and Books [0.6776894728701932]
教科書やウェブ検索といった従来のリソースからの移行は、教育者の間で懸念を呼び起こす。
本稿では,教育者の立場から3つの主な懸念点を体系的に明らかにする。
その結果,LLMは受動的学習を促進することなく,鍵概念の包括的理解を支援するが,知識保持効果は限られていた。
論文 参考訳(メタデータ) (2024-10-02T10:16:54Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - When Search Engine Services meet Large Language Models: Visions and Challenges [53.32948540004658]
本稿では,大規模言語モデルと検索エンジンの統合が,両者の相互に利益をもたらすかどうかを詳細に検討する。
LLM(Search4LLM)の改良と,LLM(LLM4Search)を用いた検索エンジン機能の向上という,2つの主要な領域に注目した。
論文 参考訳(メタデータ) (2024-06-28T03:52:13Z) - CS1-LLM: Integrating LLMs into CS1 Instruction [0.6282171844772422]
本経験報告では,大規模言語モデルを完全に取り入れた大規模大学におけるCS1コースについて述べる。
LLMを組み込むため、コースは意図的に変更され、シンタックスやコードの記述がスクラッチから強調されるようになった。
学生は3つの異なる領域に3つの大きなオープンエンドプロジェクトを与えられ、彼らの創造性を誇示した。
論文 参考訳(メタデータ) (2024-04-17T14:44:28Z) - Analyzing LLM Usage in an Advanced Computing Class in India [4.580708389528142]
本研究では,大規模言語モデル(LLM)を,大学院生や大学院生が高度なコンピューティングクラスにおけるプログラミング課題に活用することを検討した。
インド大学の分散システムクラスから411名の学生を対象に,総合的な分析を行った。
論文 参考訳(メタデータ) (2024-04-06T12:06:56Z) - An Exploratory Study on Upper-Level Computing Students' Use of Large Language Models as Tools in a Semester-Long Project [2.7325338323814328]
本研究の目的は、学期間ソフトウェアエンジニアリングプロジェクトにおいて、計算学生のLSMの使用経験とアプローチを検討することである。
我々はPurdue大学の上級ソフトウェア工学コースからデータを収集した。
本研究では,学生の利用パターンや学習成果に関連するテーマを特定するために,データを分析した。
論文 参考訳(メタデータ) (2024-03-27T15:21:58Z) - Automate Knowledge Concept Tagging on Math Questions with LLMs [48.5585921817745]
知識概念のタグ付けは、現代の知的教育応用において重要な役割を担っている。
伝統的に、これらの注釈は教育専門家の助けを借りて手作業で行われてきた。
本稿では,Large Language Models (LLM) を用いたタグ付けタスクの自動化について検討する。
論文 参考訳(メタデータ) (2024-03-26T00:09:38Z) - "It's not like Jarvis, but it's pretty close!" -- Examining ChatGPT's
Usage among Undergraduate Students in Computer Science [3.6936132187945923]
ChatGPTやGoogle Bardのような大規模言語モデル(LLM)は、学術界で大きな注目を集めている。
本研究は,大学院コンピュータサイエンスの学生がChatGPTをどのように利用するのかを包括的に理解するための,学生第一のアプローチを採用する。
論文 参考訳(メタデータ) (2023-11-16T08:10:18Z) - Distilling Rule-based Knowledge into Large Language Models [90.7765003679106]
私たちは、人間がルールから学習することで、新しいタスクや知識を別の方法で学習できることにインスピレーションを受けています。
まず, LLMの強い文脈内能力を用いて, テキスト規則から知識を抽出する規則蒸留法を提案する。
実験の結果, LLMをルールから学習させることは, サンプルサイズと一般化能力の両方において, サンプルベース学習よりもはるかに効率的であることがわかった。
論文 参考訳(メタデータ) (2023-11-15T11:42:41Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - On the Efficiency of Integrating Self-supervised Learning and
Meta-learning for User-defined Few-shot Keyword Spotting [51.41426141283203]
ユーザ定義キーワードスポッティングは、ユーザが定義する新しい音声用語を検出するタスクである。
これまでの研究は、自己教師付き学習モデルを取り入れたり、メタ学習アルゴリズムを適用しようとするものだった。
この結果から,HuBERTとMatching Networkを組み合わせることで,最適な結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-04-01T10:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。