論文の概要: LitLinker: Supporting the Ideation of Interdisciplinary Contexts with Large Language Models for Teaching Literature in Elementary Schools
- arxiv url: http://arxiv.org/abs/2502.16097v1
- Date: Sat, 22 Feb 2025 05:40:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:52:55.845844
- Title: LitLinker: Supporting the Ideation of Interdisciplinary Contexts with Large Language Models for Teaching Literature in Elementary Schools
- Title(参考訳): LitLinker:小学校における文学教育のための大規模言語モデルによる学際的文脈の構想支援
- Authors: Haoxiang Fan, Changshuang Zhou, Hao Yu, Xueyang Wu, Jiangyu Gu, Zhenhui Peng,
- Abstract要約: 我々は、文学を教えるための学際的文脈の発想を容易にするためにLitLinkerを開発した。
大規模言語モデル(LLM)によって、LitLinkerは、学際的なトピックを推奨し、読み物の文学的要素でそれらをコンテキスト化することができる。
- 参考スコア(独自算出の注目度): 10.13013479641908
- License:
- Abstract: Teaching literature under interdisciplinary contexts (e.g., science, art) that connect reading materials has become popular in elementary schools. However, constructing such contexts is challenging as it requires teachers to explore substantial amounts of interdisciplinary content and link it to the reading materials. In this paper, we develop LitLinker via an iterative design process involving 13 teachers to facilitate the ideation of interdisciplinary contexts for teaching literature. Powered by a large language model (LLM), LitLinker can recommend interdisciplinary topics and contextualize them with the literary elements (e.g., paragraphs, viewpoints) in the reading materials. A within-subjects study (N=16) shows that compared to an LLM chatbot, LitLinker can improve the integration depth of different subjects and reduce workload in this ideation task. Expert interviews (N=9) also demonstrate LitLinker's usefulness for supporting the ideation of interdisciplinary contexts for teaching literature. We conclude with concerns and design considerations for supporting interdisciplinary teaching with LLMs.
- Abstract(参考訳): 小学校では,学習教材をつなぐ学際的文脈(科学,芸術など)による文学教育が盛んである。
しかし,このような文脈の構築は,教員が大量の学際的内容を探究し,教材にリンクさせることが要求されるため,困難である。
本稿では,13人の教師を巻き込んだ反復的デザインプロセスを通じて,文学教育における学際的文脈の発想を促進するLitLinkerを開発する。
大型言語モデル(LLM)によって、LitLinkerは、学際的なトピックを推奨し、読み出し資料の文学的要素(例、段落、視点)でそれらをコンテキスト化することができる。
内部オブジェクト調査(N=16)では、LLMチャットボットと比較して、LitLinkerは異なる被験者の統合深度を改善し、このアイデアタスクにおける作業負荷を削減することができる。
専門家インタビュー(N=9)では、文学を教えるための学際的文脈の考えを支持するLitLinkerの有用性が示されている。
LLMによる学際的な教育を支援するための懸念事項と設計上の考察をまとめる。
関連論文リスト
- When Text Embedding Meets Large Language Model: A Comprehensive Survey [17.263184207651072]
テキスト埋め込みは、ディープラーニング時代に自然言語処理(NLP)の基礎技術となった。
大規模言語モデル(LLM)と3つの主題に埋め込まれたテキストの相互作用を分類する。
我々は,LLM 以前の言語モデル (PLM) を用いて,LLM 以前の未解決課題を強調し,LLM がもたらした新たな障害を探求する。
論文 参考訳(メタデータ) (2024-12-12T10:50:26Z) - Embracing AI in Education: Understanding the Surge in Large Language Model Use by Secondary Students [53.20318273452059]
OpenAIのChatGPTのような大規模言語モデル(LLM)は、新しい教育の道を開いた。
学校制限にもかかわらず,中高生300人以上を対象に調査を行ったところ,学生の70%がLDMを利用していることがわかった。
我々は、対象特化モデル、パーソナライズドラーニング、AI教室など、このような問題に対処するいくつかのアイデアを提案する。
論文 参考訳(メタデータ) (2024-11-27T19:19:34Z) - HistoLens: An LLM-Powered Framework for Multi-Layered Analysis of Historical Texts -- A Case Application of Yantie Lun [0.43512163406552007]
HistoLensは、Large Language Models (LLMs)に基づく歴史的テキストのための多層解析フレームワークである。
HistoLensは、名前付きエンティティ認識、知識グラフの構築、地理情報可視化など、NLP技術を統合している。
本稿は,多次元・視覚的・定量的手法を用いて,ヒストレンスが「ヤンティー・ルン」の西漢文化を探索する方法について述べる。
論文 参考訳(メタデータ) (2024-11-15T06:21:13Z) - RAM2C: A Liberal Arts Educational Chatbot based on Retrieval-augmented Multi-role Multi-expert Collaboration [10.72930505530085]
我々は,このような対話データを自動的に生成する検索型多言語多言語協調フレームワークを設計する。
具体的には、まずHTS指導の知識基盤を確立し、スキル、心理学、安全倫理の3つの領域知識を包含する。
次に、RAM2Cは、上記の異なる知識ベースによって強化されたLLMを、異なる役割を持つ複数の専門家グループに編成し、HTS準拠の教育対話データセットを生成する。
論文 参考訳(メタデータ) (2024-09-23T18:38:04Z) - Investigating Expert-in-the-Loop LLM Discourse Patterns for Ancient Intertextual Analysis [0.0]
この研究は、大きな言語モデルがテキスト間の直接引用、暗示、エコーを検出することを実証している。
このモデルは、長いクエリパスと、偽のテキスト間の依存を含めることに苦労する。
提案するプリンシパル・イン・ザ・ループ手法は、テキスト間研究にスケーラブルなアプローチを提供する。
論文 参考訳(メタデータ) (2024-09-03T13:23:11Z) - Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - Teaching Literature Reviewing for Software Engineering Research [10.06895600671256]
本章の目標は、文学評論に大学院生を紹介した教師を支援することである。
本報告では, 文献レビュープロセス全体の概要と, 各種文献レビューの実施ガイドラインを策定する前に, 各種文献レビューの実施方法について概説する。
論文 参考訳(メタデータ) (2024-06-12T16:16:29Z) - Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models [52.24001776263608]
この包括的調査は、HSモデレーションの最近の歩みを掘り下げている。
大型言語モデル(LLM)と大規模マルチモーダルモデル(LMM)の急成長する役割を強調した。
研究における既存のギャップを、特に表現不足言語や文化の文脈で特定する。
論文 参考訳(メタデータ) (2024-01-30T03:51:44Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z) - An Inclusive Notion of Text [69.36678873492373]
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
言語的および非言語的要素の2層分類を導入し,NLPモデリングに使用することができる。
論文 参考訳(メタデータ) (2022-11-10T14:26:43Z) - Teacher Perception of Automatically Extracted Grammar Concepts for L2
Language Learning [91.49622922938681]
本稿では,文法の異なる側面の記述を自動的に発見・可視化する自動フレームワークを提案する。
具体的には、形態素構文と意味論に関する疑問に答える自然なテキストコーパスから記述を抽出する。
この手法をインド語、カンナダ語、マラタイ語に応用するが、これは英語とは異なり、十分に発達した教育資源を持たない。
論文 参考訳(メタデータ) (2022-06-10T14:52:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。