論文の概要: Can We Delegate Learning to Automation?: A Comparative Study of LLM Chatbots, Search Engines, and Books
- arxiv url: http://arxiv.org/abs/2410.01396v1
- Date: Wed, 2 Oct 2024 10:16:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 21:19:25.819382
- Title: Can We Delegate Learning to Automation?: A Comparative Study of LLM Chatbots, Search Engines, and Books
- Title(参考訳): 学習を自動化に委譲できるか?: LLMチャットボット,検索エンジン,書籍の比較研究
- Authors: Yeonsun Yang, Ahyeon Shin, Mincheol Kang, Jiheon Kang, Jean Young Song,
- Abstract要約: 教科書やウェブ検索といった従来のリソースからの移行は、教育者の間で懸念を呼び起こす。
本稿では,教育者の立場から3つの主な懸念点を体系的に明らかにする。
その結果,LLMは受動的学習を促進することなく,鍵概念の包括的理解を支援するが,知識保持効果は限られていた。
- 参考スコア(独自算出の注目度): 0.6776894728701932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning is a key motivator behind information search behavior. With the emergence of LLM-based chatbots, students are increasingly turning to these tools as their primary resource for acquiring knowledge. However, the transition from traditional resources like textbooks and web searches raises concerns among educators. They worry that these fully-automated LLMs might lead students to delegate critical steps of search as learning. In this paper, we systematically uncover three main concerns from educators' perspectives. In response to these concerns, we conducted a mixed-methods study with 92 university students to compare three learning sources with different automation levels. Our results show that LLMs support comprehensive understanding of key concepts without promoting passive learning, though their effectiveness in knowledge retention was limited. Additionally, we found that academic performance impacted both learning outcomes and search patterns. Notably, higher-competence learners engaged more deeply with content through reading-intensive behaviors rather than relying on search activities.
- Abstract(参考訳): 学習は情報検索行動の鍵となる動機である。
LLMベースのチャットボットの出現に伴い、学生たちは知識を得るための主要なリソースとしてこれらのツールに目を向けている。
しかし、教科書やウェブ検索といった伝統的なリソースからの移行は、教育者の間で懸念を呼び起こす。
彼らは、これらの完全に自動化されたLLMが、学生に学習として検索の重要なステップを委譲するきっかけになるのではないかと心配している。
本稿では,教育者の立場から3つの主な懸念点を体系的に明らかにする。
これらの懸念に応えて,92人の大学生を対象に,異なる自動化レベルを持つ3つの学習源を比較した。
その結果,LLMは受動的学習を促進することなく,鍵概念の包括的理解を支援するが,知識保持効果は限られていた。
さらに,学術的業績が学習結果と探索パターンの両方に影響を及ぼすことがわかった。
特に,高能力学習者は,検索活動に頼らず,読書集約的な行動を通じてコンテンツに深く関与した。
関連論文リスト
- Enhancing Exploratory Learning through Exploratory Search with the Emergence of Large Language Models [3.1997856595607024]
本研究では,探索探索戦略と探索学習理論を組み合わせることで,この複雑さを解き明かそうとする。
本研究は,高頻度探索とフィードバックループを取り入れたKolbの学習モデルに適応し,学生の深い認知・高次認知スキル開発を促進することを目的としている。
論文 参考訳(メタデータ) (2024-08-09T04:30:16Z) - When Search Engine Services meet Large Language Models: Visions and Challenges [53.32948540004658]
本稿では,大規模言語モデルと検索エンジンの統合が,両者の相互に利益をもたらすかどうかを詳細に検討する。
LLM(Search4LLM)の改良と,LLM(LLM4Search)を用いた検索エンジン機能の向上という,2つの主要な領域に注目した。
論文 参考訳(メタデータ) (2024-06-28T03:52:13Z) - Self-Tuning: Instructing LLMs to Effectively Acquire New Knowledge through Self-Teaching [67.11497198002165]
大きな言語モデル(LLM)は、一度のトレーニングのために最新の情報を提供するのに苦労することが多い。
効率的なヒューマンラーニングにおけるFeynman Techniqueの顕著な成功に感銘を受け、セルフチューニングを紹介した。
論文 参考訳(メタデータ) (2024-06-10T14:42:20Z) - Automate Knowledge Concept Tagging on Math Questions with LLMs [48.5585921817745]
知識概念のタグ付けは、現代の知的教育応用において重要な役割を担っている。
伝統的に、これらの注釈は教育専門家の助けを借りて手作業で行われてきた。
本稿では,Large Language Models (LLM) を用いたタグ付けタスクの自動化について検討する。
論文 参考訳(メタデータ) (2024-03-26T00:09:38Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - Unleash Model Potential: Bootstrapped Meta Self-supervised Learning [12.57396771974944]
機械学習の長期的な目標は、監督なしで少数のデータから一般的な視覚表現を学習することである。
自己指導型学習とメタラーニングは、この目標を達成するための2つの有望なテクニックであるが、どちらもメリットを部分的に捉えているだけである。
本稿では,人間の学習過程をシミュレートすることを目的とした,ブートストラップ型メタ自己監視学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-28T02:49:07Z) - Searching to Learn with Instructional Scaffolding [7.159235937301605]
本稿では,3つの戦略を用いた探索システムへの足場導入について検討する。
AQE_SCは、関連するサブトピックによるユーザクエリの自動拡張、CURATED_SCは、検索エンジンの結果ページに、手動でキュレートされた関連するサブトピックの静的リストを表示する。
FEEDBACK_SC – CURATED_SCビジュアライゼーションの上に、ユーザのトピック空間探索に関するリアルタイムフィードバックを投影する。
論文 参考訳(メタデータ) (2021-11-29T15:15:02Z) - Sharing to learn and learning to share; Fitting together Meta-Learning, Multi-Task Learning, and Transfer Learning: A meta review [4.462334751640166]
本稿では、これらの学習アルゴリズムを2つ組み合わせた研究についてレビューする。
文献から蓄積した知識に基づいて、汎用的なタスクに依存しないモデルに依存しない学習ネットワークを仮定する。
論文 参考訳(メタデータ) (2021-11-23T20:41:06Z) - Knowledge-Aware Meta-learning for Low-Resource Text Classification [87.89624590579903]
本稿では,低リソーステキスト分類問題について検討し,メタトレーニングとメタテストのギャップを埋める。
抽出した文固有知識グラフから学習した各文に対する追加表現を提案する。
論文 参考訳(メタデータ) (2021-09-10T07:20:43Z) - Curriculum Learning for Reinforcement Learning Domains: A Framework and
Survey [53.73359052511171]
強化学習(Reinforcement Learning, RL)は、エージェントが限られた環境フィードバックしか持たないシーケンシャルな意思決定タスクに対処するための一般的なパラダイムである。
本稿では、RLにおけるカリキュラム学習(CL)の枠組みを提案し、既存のCLメソッドを仮定、能力、目標の観点から調査・分類する。
論文 参考訳(メタデータ) (2020-03-10T20:41:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。