論文の概要: Facilitating reflection in teletandem through automatically generated
conversation metrics and playback video
- arxiv url: http://arxiv.org/abs/2111.08788v2
- Date: Thu, 18 Nov 2021 13:49:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 12:40:51.035311
- Title: Facilitating reflection in teletandem through automatically generated
conversation metrics and playback video
- Title(参考訳): 自動生成会話メトリクスと再生ビデオによるテレタンデム反射のファシリテート
- Authors: Aparajita Dey-Plissonneau, Hyowon Lee, Michael Scriney, Alan F.
Smeaton, Vincent Pradier, Hamza Riaz
- Abstract要約: このパイロットスタディは、第二言語(L2)学習者がネイティブスピーカーとのZoomインタラクションを可視化し分析できるツールに焦点を当てている。
L2LはZoom transcriptを使用して会話メトリクスを自動生成し、タイムスタンプによる再生機能により、学生は会話の選択した部分を再生して、セッション後のリフレクションと自己レビューを行うことができる。
- 参考スコア(独自算出の注目度): 4.014717876643502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This pilot study focuses on a tool called L2L that allows second language
(L2) learners to visualise and analyse their Zoom interactions with native
speakers. L2L uses the Zoom transcript to automatically generate conversation
metrics and its playback feature with timestamps allows students to replay any
chosen portion of the conversation for post-session reflection and self-review.
This exploratory study investigates a seven-week teletandem project, where
undergraduate students from an Irish University learning French (B2) interacted
with their peers from a French University learning English (B2+) via Zoom. The
data collected from a survey (N=43) and semi-structured interviews (N=35) show
that the quantitative conversation metrics and qualitative review of the
synchronous content helped raise students' confidence levels while engaging
with native speakers. Furthermore, it allowed them to set tangible goals to
improve their participation, and be more aware of what, why and how they are
learning.
- Abstract(参考訳): このパイロット研究は、L2Lと呼ばれるツールに焦点を当てており、第二言語(L2)学習者は、ネイティブスピーカーとのZoomインタラクションを視覚化し分析することができる。
L2LはZoom transcriptを使用して会話メトリクスを自動生成し、タイムスタンプによる再生機能により、学生は会話の選択した部分を再生して、セッション後のリフレクションと自己レビューを行うことができる。
本研究は,アイルランド大学でフランス語を学ぶ大学生(b2)がzoomで英語を学ぶフランスの大学(b2+)の仲間と交流する,7週間のテレタンデムプロジェクトを調査した。
質問紙調査(N=43)と半構造化インタビュー(N=35)から収集したデータから,会話の量的指標と同期コンテンツの質的評価が,母語話者と対話しながら学生の信頼度を高めることを示唆した。
さらに、参加を改善するために具体的な目標を設定し、何、なぜ、どのように学習しているかをより認識できるようになった。
関連論文リスト
- Multilingual Needle in a Haystack: Investigating Long-Context Behavior of Multilingual Large Language Models [22.859955360764275]
本稿では,MultiLingual Needle-in-a-Haystack(MLNeedle)テストを導入する。
我々はMLNeedleの4つの最先端の大規模言語モデルを評価する。
論文 参考訳(メタデータ) (2024-08-19T17:02:06Z) - A Tale of Two Languages: Large-Vocabulary Continuous Sign Language Recognition from Spoken Language Supervision [74.972172804514]
我々は,署名された言語と音声のテキスト間の共同埋め込み空間において,署名シーケンスと出力を抽出できるマルチタスクトランスフォーマーモデルCSLR2を導入する。
新しいデータセットアノテーションは、6時間のテストビデオに対して、連続的なサインレベルアノテーションを提供する。
私たちのモデルは、両方のタスクにおいて、過去の技術状況よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-05-16T17:19:06Z) - TouchStone: Evaluating Vision-Language Models by Language Models [91.69776377214814]
本稿では,LVLMの様々な能力を総合的に評価するために,強大な言語モデルを用いた評価手法を提案する。
オープンワールドイメージと質問からなる包括的ビジュアル対話データセットTouchStoneを構築し,5つの主要な機能カテゴリと27のサブタスクをカバーした。
GPT-4のような強力なLVLMは、テキスト機能のみを活用することで、対話品質を効果的に評価できることを実証する。
論文 参考訳(メタデータ) (2023-08-31T17:52:04Z) - AutoConv: Automatically Generating Information-seeking Conversations
with Large Language Models [74.10293412011455]
合成会話生成のためのAutoConvを提案する。
具体的には,会話生成問題を言語モデリングタスクとして定式化する。
我々は、情報探索プロセスの特徴を捉えるために、人間同士の会話でLLMを微調整する。
論文 参考訳(メタデータ) (2023-08-12T08:52:40Z) - SLABERT Talk Pretty One Day: Modeling Second Language Acquisition with
BERT [0.0]
言語間移動は、話者の母語の言語構造が外国語の獲得に与える影響である。
我々はNLP文献が陰性移行現象に十分な注意を払っていないことを発見した。
そこで本研究では,TransformerベースのSLAモデルを用いたさらなる研究を提唱する。
論文 参考訳(メタデータ) (2023-05-31T06:22:07Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Efficiently Aligned Cross-Lingual Transfer Learning for Conversational
Tasks using Prompt-Tuning [98.60739735409243]
英語のような高リソース言語で訓練された言語モデルの言語間移動は、多くのNLPタスクのために広く研究されている。
並列および大規模多言語会話データセットである言語間アライメント事前学習のためのXSGDを導入する。
協調的な言語間表現を容易にするために,アライメントプロンプトを学習するための効率的なプロンプトチューニング手法を開発した。
論文 参考訳(メタデータ) (2023-04-03T18:46:01Z) - Analysis of Individual Conversational Volatility in Tandem
Telecollaboration for Second Language Learning [7.767962338247332]
生徒はビデオ会議コールにグループ化され、他の生徒の母国語を学習する。
これにより、学生がより積極的に貢献し、対話を行うオンライン環境に置かれる。
通話中のすべての参加者から会話発話のタイミングを記録するL2Lシステムを構築し,展開した。
小学校1学期における86件のテレコラボレーションコールにおいて, フランス語を学習している英語話者19名を対象に, 会話のボラティリティ尺度の分析を行った。
論文 参考訳(メタデータ) (2022-06-28T12:34:00Z) - Watch and Learn: Mapping Language and Noisy Real-world Videos with
Self-supervision [54.73758942064708]
我々は、明示的なアノテーションを使わずに、文章と騒々しいビデオスニペットのマッピングを学習することで、視覚と自然言語を理解するように機械に教える。
トレーニングと評価のために、多数のオンラインビデオとサブタイトルを含む新しいデータセットApartmenTourをコントリビュートする。
論文 参考訳(メタデータ) (2020-11-19T03:43:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。