論文の概要: Enhancing Exploratory Learning through Exploratory Search with the Emergence of Large Language Models
- arxiv url: http://arxiv.org/abs/2408.08894v1
- Date: Fri, 9 Aug 2024 04:30:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-25 14:30:57.215847
- Title: Enhancing Exploratory Learning through Exploratory Search with the Emergence of Large Language Models
- Title(参考訳): 大規模言語モデルの創発による探索探索による探索学習の促進
- Authors: Yiming Luo, Patrick Cheong-Iao, Shanton Chang,
- Abstract要約: 本研究では,探索探索戦略と探索学習理論を組み合わせることで,この複雑さを解き明かそうとする。
本研究は,高頻度探索とフィードバックループを取り入れたKolbの学習モデルに適応し,学生の深い認知・高次認知スキル開発を促進することを目的としている。
- 参考スコア(独自算出の注目度): 3.1997856595607024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the information era, how learners find, evaluate, and effectively use information has become a challenging issue, especially with the added complexity of large language models (LLMs) that have further confused learners in their information retrieval and search activities. This study attempts to unpack this complexity by combining exploratory search strategies with the theories of exploratory learning to form a new theoretical model of exploratory learning from the perspective of students' learning. Our work adapts Kolb's learning model by incorporating high-frequency exploration and feedback loops, aiming to promote deep cognitive and higher-order cognitive skill development in students. Additionally, this paper discusses and suggests how advanced LLMs integrated into information retrieval and information theory can support students in their exploratory searches, contributing theoretically to promoting student-computer interaction and supporting their learning journeys in the new era with LLMs.
- Abstract(参考訳): 情報時代において,学習者が情報の発見,評価,有効利用を行う方法が課題となっている。特に,学習者が情報検索や検索活動においてさらに混乱する大規模言語モデル(LLM)の複雑さが増している。
本研究は,探索学習理論と探索探索戦略を組み合わせて,学生の学習の観点から探索学習の新たな理論的モデルを構築することで,この複雑さを解き放つ試みである。
本研究は,高頻度探索とフィードバックループを取り入れたKolbの学習モデルに適応し,学生の深い認知・高次認知スキル開発を促進することを目的としている。
さらに,情報検索と情報理論に高度に統合されたLLMが,探索的探索において学生をいかに支援できるかを論じ,理論的に学生とコンピュータの相互作用を促進し,LLMとの新たな時代における学習の旅を支援することに寄与するかを論じる。
関連論文リスト
- RA-BLIP: Multimodal Adaptive Retrieval-Augmented Bootstrapping Language-Image Pre-training [55.54020926284334]
近年,MLLM (Multimodal Large Language Models) が注目されている。
検索拡張技術はLLMとMLLMの両方に有効なプラグインであることが証明されている。
本研究では,MLLMの新しい検索支援フレームワークであるRA-BLIP(Retrieval-Augmented Bootstrapping Language-Image Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:45:19Z) - Can We Delegate Learning to Automation?: A Comparative Study of LLM Chatbots, Search Engines, and Books [0.6776894728701932]
教科書やウェブ検索といった従来のリソースからの移行は、教育者の間で懸念を呼び起こす。
本稿では,教育者の立場から3つの主な懸念点を体系的に明らかにする。
その結果,LLMは受動的学習を促進することなく,鍵概念の包括的理解を支援するが,知識保持効果は限られていた。
論文 参考訳(メタデータ) (2024-10-02T10:16:54Z) - Enhancing Generative Class Incremental Learning Performance with Model Forgetting Approach [50.36650300087987]
本研究は, ジェネレーティブ・クラス・インクリメンタル・ラーニング(GCIL, Generative Class Incremental Learning)への新たなアプローチを提案する。
我々は, 忘れる機構の統合により, 新たな知識獲得におけるモデルの性能が著しく向上することを発見した。
論文 参考訳(メタデータ) (2024-03-27T05:10:38Z) - Latent Lab: Large Language Models for Knowledge Exploration [0.0]
我々は,MITメディアラボ研究プロジェクト間のつながりを発見するインタラクティブツールである"Latent Lab"を紹介する。
この研究は、コンテンツを整理、検索、合成する際の課題に対処することで、協調AIシステムに関する洞察を提供する。
論文 参考訳(メタデータ) (2023-11-21T23:23:16Z) - When Meta-Learning Meets Online and Continual Learning: A Survey [39.53836535326121]
メタ学習は学習アルゴリズムを最適化するためのデータ駆動型アプローチである。
継続的な学習とオンライン学習はどちらも、ストリーミングデータでモデルを漸進的に更新する。
本稿では,一貫した用語と形式記述を用いて,様々な問題設定を整理する。
論文 参考訳(メタデータ) (2023-11-09T09:49:50Z) - Exploring the Cognitive Knowledge Structure of Large Language Models: An
Educational Diagnostic Assessment Approach [50.125704610228254]
大規模言語モデル(LLM)は、様々なタスクにまたがる例外的なパフォーマンスを示すだけでなく、知性の火花も示している。
近年の研究では、人間の試験における能力の評価に焦点が当てられ、異なる領域における彼らの印象的な能力を明らかにしている。
ブルーム分類に基づく人体検査データセットであるMoocRadarを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-12T09:55:45Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - A Survey of Exploration Methods in Reinforcement Learning [64.01676570654234]
強化学習エージェントは、学習プロセスのための情報データを得るために、探索に極めて依存する。
本稿では,(逐次的)強化学習における近代的な探究手法の調査と,探索手法の分類について述べる。
論文 参考訳(メタデータ) (2021-09-01T02:36:14Z) - An Empirical Comparison of Deep Learning Models for Knowledge Tracing on
Large-Scale Dataset [10.329254031835953]
知識追跡は、各学生の知識概念の熟達をモデル化する問題である。
最近の大規模学生成績データセット citechoi 2019ednet のリリースは、ディープラーニングアプローチのパフォーマンス分析を動機付けている。
論文 参考訳(メタデータ) (2021-01-16T04:58:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。