論文の概要: Enhancing Talk Moves Analysis in Mathematics Tutoring through Classroom Teaching Discourse
- arxiv url: http://arxiv.org/abs/2412.13395v1
- Date: Wed, 18 Dec 2024 00:13:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 13:24:52.369348
- Title: Enhancing Talk Moves Analysis in Mathematics Tutoring through Classroom Teaching Discourse
- Title(参考訳): 授業談話による数学授業における話し言葉分析の促進
- Authors: Jie Cao, Abhijit Suresh, Jennifer Jacobs, Charis Clevenger, Amanda Howard, Chelsea Brown, Brent Milne, Tom Fischaber, Tamara Sumner, James H. Martin,
- Abstract要約: 本稿では,会話の動きを用いた数学の授業内容の分析に焦点をあてる。
機械学習モデルを開発するために、広範な学習対話の収集、アノテーション、分析をスケールすることは、困難でリソース集約的なタスクである。
- 参考スコア(独自算出の注目度): 6.1701318546149
- License:
- Abstract: Human tutoring interventions play a crucial role in supporting student learning, improving academic performance, and promoting personal growth. This paper focuses on analyzing mathematics tutoring discourse using talk moves - a framework of dialogue acts grounded in Accountable Talk theory. However, scaling the collection, annotation, and analysis of extensive tutoring dialogues to develop machine learning models is a challenging and resource-intensive task. To address this, we present SAGA22, a compact dataset, and explore various modeling strategies, including dialogue context, speaker information, pretraining datasets, and further fine-tuning. By leveraging existing datasets and models designed for classroom teaching, our results demonstrate that supplementary pretraining on classroom data enhances model performance in tutoring settings, particularly when incorporating longer context and speaker information. Additionally, we conduct extensive ablation studies to underscore the challenges in talk move modeling.
- Abstract(参考訳): 人間の指導介入は、学生の学習を支援し、学業成績を改善し、個人の成長を促進する上で重要な役割を担っている。
本稿では,説明可能な会話理論に基づく対話行動の枠組みである会話の動きを用いた数学学習談話の分析に焦点をあてる。
しかし、機械学習モデルを開発するために、広範な学習対話の収集、アノテーション、分析をスケールすることは、困難でリソース集約的な作業である。
そこで我々は,コンパクトなデータセットであるSAGA22を提案し,対話コンテキストや話者情報,事前学習データセット,さらに微調整など,さまざまなモデリング戦略を探求する。
教室教師のための既存のデータセットとモデルを活用することで、教室データによる補修事前学習が、特により長いコンテキストや話者情報を取り入れた場合、学習環境におけるモデル性能を向上させることを示す。
さらに,講演移動モデリングにおける課題を明らかにするために,広範囲にわたるアブレーション研究を実施している。
関連論文リスト
- CantTalkAboutThis: Aligning Language Models to Stay on Topic in Dialogues [4.427811636536821]
CantTalkAboutこのデータセットは、異なるドメインからの幅広い会話トピックに関する合成対話で構成されている。
このデータセット上の微調整言語モデルは、割り当てられたロールから逸脱する耐性を高めるのに役立ちます。
予備的な観察は、このデータセットのトレーニングモデルが、安全アライメントを含む、きめ細かい指示に従うタスクのパフォーマンスを向上させることを示唆している。
論文 参考訳(メタデータ) (2024-04-04T22:31:58Z) - SPECTRUM: Speaker-Enhanced Pre-Training for Long Dialogue Summarization [48.284512017469524]
マルチターン対話は、その長さとターンテイクな会話の存在によって特徴づけられる。
伝統的な言語モデルは、しばしばそれらの対話の特徴を通常のテキストとして扱うことによって見落としている。
長文対話要約のための話者強化事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-31T04:50:00Z) - RAVEN: In-Context Learning with Retrieval-Augmented Encoder-Decoder Language Models [57.12888828853409]
RAVENは検索強化されたマスク付き言語モデリングとプレフィックス言語モデリングを組み合わせたモデルである。
フュージョン・イン・コンテキスト・ラーニング(Fusion-in-Context Learning)により、追加のトレーニングを必要とせずに、より多くのコンテキスト内サンプルを利用できる。
本研究は,テキスト内学習のためのエンコーダ・デコーダ言語モデルの構築の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-08-15T17:59:18Z) - "You might think about slightly revising the title": identifying hedges
in peer-tutoring interactions [1.0466434989449724]
ヘッジは会話の相互作用の管理において重要な役割を果たす。
我々は、ヘッジを特定するための計算フレームワークを構築するために、マルチモーダルなピアチューニングデータセットを使用する。
我々は、ピアチューニング会話でヘッジを特徴付ける特徴を探索するために、モデル説明可能性ツールを使用します。
論文 参考訳(メタデータ) (2023-06-18T12:47:54Z) - MathDial: A Dialogue Tutoring Dataset with Rich Pedagogical Properties
Grounded in Math Reasoning Problems [74.73881579517055]
そこで本稿では,一般学生の誤りを表現した大規模言語モデルを用いて,人間教師の対話を生成する枠組みを提案する。
このフレームワークを用いて3kの1対1の教師-学生対話のデータセットであるMathDialを収集する方法について述べる。
論文 参考訳(メタデータ) (2023-05-23T21:44:56Z) - Opportunities and Challenges in Neural Dialog Tutoring [54.07241332881601]
言語学習のための2つの対話学習データセットを用いて、様々な生成言語モデルを厳密に分析する。
現在のアプローチでは、制約のある学習シナリオでチューリングをモデル化できますが、制約の少ないシナリオではパフォーマンスが悪くなります。
人的品質評価では, モデルと接地木アノテーションの両方が, 同等のチュータリングの点で低い性能を示した。
論文 参考訳(メタデータ) (2023-01-24T11:00:17Z) - DialogZoo: Large-Scale Dialog-Oriented Task Learning [52.18193690394549]
我々は,多種多様な対話課題を解くための統合基盤モデルの構築を目指している。
この目的を達成するために、73の公開データセットから、まず大規模なラベル付き対話データセットを収集する。
論文 参考訳(メタデータ) (2022-05-25T11:17:16Z) - Using Transformers to Provide Teachers with Personalized Feedback on
their Classroom Discourse: The TalkMoves Application [14.851607363136978]
教室の記録を管理し処理するためのTalkMovesアプリケーションのクラウドベースのインフラストラクチャについて説明します。
本稿では,k-12教室における実世界音声と言語データを扱う際に取り組むべき技術的課題について考察する。
論文 参考訳(メタデータ) (2021-04-29T20:45:02Z) - Enhancing Dialogue Generation via Multi-Level Contrastive Learning [57.005432249952406]
質問に対する応答のきめ細かい品質をモデル化するマルチレベルコントラスト学習パラダイムを提案する。
Rank-aware (RC) ネットワークはマルチレベルコントラスト最適化の目的を構築するために設計されている。
本研究では,知識推論(KI)コンポーネントを構築し,学習中の参照からキーワードの知識を抽出し,そのような情報を活用して情報的単語の生成を促す。
論文 参考訳(メタデータ) (2020-09-19T02:41:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。