論文の概要: Towards an AI-Augmented Textbook
- arxiv url: http://arxiv.org/abs/2509.13348v3
- Date: Thu, 25 Sep 2025 20:48:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 16:35:18.991782
- Title: Towards an AI-Augmented Textbook
- Title(参考訳): AIを活用したテキストブックを目指して
- Authors: LearnLM Team, Google, :, Alicia Martín, Amir Globerson, Amy Wang, Anirudh Shekhawat, Anna Iurchenko, Anisha Choudhury, Avinatan Hassidim, Ayça Çakmakli, Ayelet Shasha Evron, Charlie Yang, Courtney Heldreth, Diana Akrong, Gal Elidan, Hairong Mu, Ian Li, Ido Cohen, Katherine Chou, Komal Singh, Lev Borovoi, Lidan Hackmon, Lior Belinsky, Michael Fink, Niv Efron, Preeti Singh, Rena Levitt, Shashank Agarwal, Shay Sharon, Tracey Lee-Joe, Xiaohong Hao, Yael Gold-Zamir, Yael Haramaty, Yishay Mor, Yoav Bar Sinai, Yossi Matias,
- Abstract要約: 生成AIを用いて教科書を変換・拡張する手法を提案する。
このアプローチで構築されたシステムをLearning Your Wayと呼ぶ。
異なる変換と拡張の教育学的評価を報告し、ランダム化制御試験の結果を報告する。
- 参考スコア(独自算出の注目度): 35.262145458142804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Textbooks are a cornerstone of education, but they have a fundamental limitation: they are a one-size-fits-all medium. Any new material or alternative representation requires arduous human effort, so that textbooks cannot be adapted in a scalable manner. We present an approach for transforming and augmenting textbooks using generative AI, adding layers of multiple representations and personalization while maintaining content integrity and quality. We refer to the system built with this approach as Learn Your Way. We report pedagogical evaluations of the different transformations and augmentations, and present the results of a a randomized control trial, highlighting the advantages of learning with Learn Your Way over regular textbook usage.
- Abstract(参考訳): 教科書は教育の基盤だが、基本的な制限がある。
新しい素材や代替表現は、教科書がスケーラブルな方法で適応できないように、厳しい人的努力を必要とする。
本稿では、コンテンツ完全性と品質を維持しつつ、複数の表現とパーソナライゼーションのレイヤを追加し、生成AIを用いて教科書を変換・拡張するアプローチを提案する。
このアプローチで構築されたシステムをLearning Your Wayと呼ぶ。
本報告では,異なる変換と拡張の教育的評価を報告し,ランダム化制御試験の結果を提示し,通常の教科書使用よりもLearning Your Wayで学習することの利点を強調した。
関連論文リスト
- Adaptive Multi-Modality Prompt Learning [21.86784369327551]
上記の問題に対処するために,適応型マルチモーダリティ・プロンプト学習を提案する。
画像プロンプト学習は、まず意味のないパッチをマスキングし、学習可能なパラメータとテキストからの情報をパディングすることで、サンプル内およびサンプル外一般化を実現する。
実データを用いた実験結果から,本手法は下流の異なるタスクにおいてSOTA法より優れていることが示された。
論文 参考訳(メタデータ) (2023-11-30T12:10:22Z) - ITEm: Unsupervised Image-Text Embedding Learning for eCommerce [9.307841602452678]
製品埋め込みは、電子商取引における幅広い応用の基礎となる。
本稿では,画像とテキストのモダリティによく対応できる画像テキスト埋め込みモデル(ITEm)を提案する。
我々は、非常に類似した商品の探索と製品カテゴリーの予測という2つのタスクにおいて、事前訓練されたITTmを評価する。
論文 参考訳(メタデータ) (2023-10-22T15:39:44Z) - Enhancing Textbooks with Visuals from the Web for Improved Learning [50.01434477801967]
本稿では,Webからの画像を用いた教科書を自動的に強化する視覚言語モデルの有効性について検討する。
数学、科学、社会科学、ビジネス分野における電子教科書のデータセットを収集します。
次に,テキスト画像マッチングタスクを設定し,テキスト画像の検索とテキストへの適切な割り当てを行う。
論文 参考訳(メタデータ) (2023-04-18T12:16:39Z) - Adaptive Text Recognition through Visual Matching [86.40870804449737]
言語における文字の反復性を利用した新しいモデルを提案する。
これにより、テキスト認識を形状整合問題に変換する。
従来のアーキテクチャでは、高価な再トレーニングなしには解決できない課題に対処できることが示されています。
論文 参考訳(メタデータ) (2020-09-14T17:48:53Z) - Improving Disentangled Text Representation Learning with
Information-Theoretic Guidance [99.68851329919858]
自然言語の独特な性質は、テキスト表現の分離をより困難にする。
情報理論にインスパイアされた本研究では,テキストの不整合表現を効果的に表現する手法を提案する。
条件付きテキスト生成とテキストスタイル転送の両方の実験は、不整合表現の質を実証する。
論文 参考訳(メタデータ) (2020-06-01T03:36:01Z) - Revisiting Meta-Learning as Supervised Learning [69.2067288158133]
メタラーニングと従来の教師付き学習の関連性を再考し,強化することで,原則的,統一的なフレームワークの提供を目指す。
タスク固有のデータセットとターゲットモデルを(機能、ラベル)サンプルとして扱うことで、多くのメタ学習アルゴリズムを教師付き学習のインスタンスに還元することができる。
この視点は、メタラーニングを直感的で実践的なフレームワークに統一するだけでなく、教師付き学習から直接洞察を伝達してメタラーニングを改善することができる。
論文 参考訳(メタデータ) (2020-02-03T06:13:01Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。