論文の概要: Stay Hungry, Stay Foolish: On the Extended Reading Articles Generation with LLMs
- arxiv url: http://arxiv.org/abs/2504.15013v1
- Date: Mon, 21 Apr 2025 10:35:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 15:22:14.8818
- Title: Stay Hungry, Stay Foolish: On the Extended Reading Articles Generation with LLMs
- Title(参考訳): Stay Hungry, Stay Foolish:LLMによる拡張読解記事生成について
- Authors: Yow-Fu Liou, Yu-Chien Tang, An-Zi Yen,
- Abstract要約: 本研究では,Large Language Models (LLMs) の可能性を探究し,教材作成の合理化を図る。
TED-Ed Dig Deeperセクションを最初の探索として使用し、補足的記事が文脈知識によってどのように豊かになるかを検討する。
実験により,本モデルが高品質なコンテンツと正確なコース提案を生成することを示す。
- 参考スコア(独自算出の注目度): 3.2962799070467432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The process of creating educational materials is both time-consuming and demanding for educators. This research explores the potential of Large Language Models (LLMs) to streamline this task by automating the generation of extended reading materials and relevant course suggestions. Using the TED-Ed Dig Deeper sections as an initial exploration, we investigate how supplementary articles can be enriched with contextual knowledge and connected to additional learning resources. Our method begins by generating extended articles from video transcripts, leveraging LLMs to include historical insights, cultural examples, and illustrative anecdotes. A recommendation system employing semantic similarity ranking identifies related courses, followed by an LLM-based refinement process to enhance relevance. The final articles are tailored to seamlessly integrate these recommendations, ensuring they remain cohesive and informative. Experimental evaluations demonstrate that our model produces high-quality content and accurate course suggestions, assessed through metrics such as Hit Rate, semantic similarity, and coherence. Our experimental analysis highlight the nuanced differences between the generated and existing materials, underscoring the model's capacity to offer more engaging and accessible learning experiences. This study showcases how LLMs can bridge the gap between core content and supplementary learning, providing students with additional recommended resources while also assisting teachers in designing educational materials.
- Abstract(参考訳): 教育資料作成のプロセスは、教育者にとって時間と要求の両方がかかる。
本研究は,大規模言語モデル(LLM)が,拡張読解材料の生成と関連するコース提案を自動化することで,タスクの合理化に寄与する可能性を探るものである。
TED-Ed Dig Deeperセクションを最初の探索として使用し、補足的記事が文脈知識に富み、追加の学習資源とどのように結びつくかを検討する。
提案手法は,ビデオの書き起こしから拡張記事を生成し,LLMを利用して歴史的洞察,文化事例,イラストレーションの逸話を収録することから始まる。
意味的類似度ランキングを用いたレコメンデーションシステムは、関連コースを特定し、LLMに基づく改善プロセスにより関連性を高める。
最後の記事は、これらのレコメンデーションをシームレスに統合し、結束的で情報的であることを保証するように調整されている。
実験により,本モデルがハイトレート,セマンティック類似性,コヒーレンスなどの指標を用いて評価し,高品質なコンテンツと正確なコース提案を生成することを示す。
我々の実験分析は、生成した材料と既存の材料との微妙な違いを強調し、より魅力的でアクセスしやすい学習体験を提供するためのモデルの能力を強調した。
本研究は,LLMが中核的内容と補足的学習のギャップを埋める方法を示し,教師が教材をデザインするのを支援するとともに,追加の推奨リソースを提供する。
関連論文リスト
- Examining GPT's Capability to Generate and Map Course Concepts and Their Relationship [0.2309018557701645]
本稿では,LLMがコース概念を自動生成する可能性とその関連性について検討する。
我々は,GPTに異なるレベルの詳細のコース情報を提供し,それによって高品質なコース概念を生成し,それらの関係を同定する。
本研究は,教育コンテンツの選択と配信を支援するツールとしてのLCMの実用性を示すものである。
論文 参考訳(メタデータ) (2025-04-11T05:03:12Z) - How do Large Language Models Understand Relevance? A Mechanistic Interpretability Perspective [64.00022624183781]
大規模言語モデル(LLM)は、関連性を評価し、情報検索(IR)タスクをサポートする。
メカニスティック・インタプリタビリティのレンズを用いて,異なるLLMモジュールが関係判断にどのように寄与するかを検討する。
論文 参考訳(メタデータ) (2025-04-10T16:14:55Z) - Effective LLM Knowledge Learning via Model Generalization [73.16975077770765]
大規模言語モデル(LLM)は、広範囲な世界知識を含む膨大なドキュメントに基づいて訓練されている。
自己回帰的な事前学習を通じて知識がどのように獲得されるかは、まだよく理解されていない。
本稿では,LLM知識学習の理解と改善に焦点をあてる。
論文 参考訳(メタデータ) (2025-03-05T17:56:20Z) - Exploring the landscape of large language models: Foundations, techniques, and challenges [8.042562891309414]
この記事では、コンテキスト内学習の力学と微調整アプローチのスペクトルについて光を当てている。
革新的な強化学習フレームワークを通じて、LLMが人間の好みとより緊密に連携する方法について検討する。
LLMデプロイメントの倫理的側面は議論され、マインドフルで責任あるアプリケーションの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-04-18T08:01:20Z) - Using Generative Text Models to Create Qualitative Codebooks for Student Evaluations of Teaching [0.0]
学生による教育評価(SET)は、教育者にとって重要なフィードバック源である。
SETのコレクションは、管理者がコースやプログラム全体の信号として役立つ。
自然言語処理(NLP)と大規模言語モデル(LLM)を用いてSETを解析する新しい手法について論じる。
論文 参考訳(メタデータ) (2024-03-18T17:21:35Z) - C-ICL: Contrastive In-context Learning for Information Extraction [54.39470114243744]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - Can We Trust AI-Generated Educational Content? Comparative Analysis of
Human and AI-Generated Learning Resources [4.528957284486784]
大規模言語モデル(LLMs)は、大規模に学習教材を迅速に作成する上で、有望なソリューションを提供するように見える。
学習指導活動の一環として,LLMが生み出す資源の質と学生が生み出す資源の質を比較した。
その結果、学生が認識するAI生成リソースの品質は、同僚が生成するリソースの品質と同等であることがわかった。
論文 参考訳(メタデータ) (2023-06-18T09:49:21Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z) - ONCE: Boosting Content-based Recommendation with Both Open- and
Closed-source Large Language Models [39.193602991105]
大規模言語モデル(LLM)は、事前学習から深い意味理解と広範な知識を持っている。
我々は、コンテンツベースのレコメンデーションを強化するために、オープンソースLLMとクローズドソースLLMの両方を活用する可能性を探る。
既存の最先端レコメンデーションモデルと比較して, 最大19.32%の大幅な改善が見られた。
論文 参考訳(メタデータ) (2023-05-11T04:51:21Z) - Knowledge-Aware Meta-learning for Low-Resource Text Classification [87.89624590579903]
本稿では,低リソーステキスト分類問題について検討し,メタトレーニングとメタテストのギャップを埋める。
抽出した文固有知識グラフから学習した各文に対する追加表現を提案する。
論文 参考訳(メタデータ) (2021-09-10T07:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。