論文の概要: Can an AI-Powered Presentation Platform Based On The Game "Just a Minute" Be Used To Improve Students' Public Speaking Skills?
- arxiv url: http://arxiv.org/abs/2510.03379v1
- Date: Fri, 03 Oct 2025 15:06:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:58.948435
- Title: Can an AI-Powered Presentation Platform Based On The Game "Just a Minute" Be Used To Improve Students' Public Speaking Skills?
- Title(参考訳): ゲーム「ジャスト・ア・分」をベースとしたAIによるプレゼンテーションプラットフォームは、生徒の公的な話し方を改善することができるか?
- Authors: Frederic Higham, Tommy Yuan,
- Abstract要約: 本研究では,大学生を対象としたプレゼンテーションプラットフォームにAIとゲーミフィケーションを適用した効果について検討する。
ラジオ番組「Just a Minute(ジャスト・ア・ミニット、JAM)」を基にしたプラットフォームを探索する。このゲームでは、プレイヤーは、そのトピックを繰り返すことなく60秒間、流れるように話し合わなければならない。
生徒はゲームが有望であることに気付き、より長くプレイすれば、彼らの話すスキルが向上すると考えた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This study explores the effectiveness of applying AI and gamification into a presentation platform aimed at University students wanting to improve their public speaking skills in their native tongue. Specifically, a platform based on the radio show, Just a Minute (JAM), is explored. In this game, players are challenged to speak fluently on a topic for 60 seconds without repeating themselves, hesitating or deviating from the topic. JAM has proposed benefits such as allowing students to improve their spontaneous speaking skills and reduce their use of speech disfluencies ("um", "uh", etc.). Previous research has highlighted the difficulties students face when speaking publicly, the main one being anxiety. AI Powered Presentation Platforms (AI-PPPs), where students can speak with an immersive AI audience and receive real-time feedback, have been explored as a method to improve student's speaking skills and confidence. So far they have shown promising results which this study aims to build upon. A group of students from the University of York are enlisted to evaluate the effectiveness of the JAM platform. They are asked to fill in a questionnaire, play through the game twice and then complete a final questionnaire to discuss their experiences playing the game. Various statistics are gathered during their gameplay such as the number of points they gained and the number of rules they broke. The results showed that students found the game promising and believed that their speaking skills could improve if they played the game for longer. More work will need to be carried out to prove the effectiveness of the game beyond the short term.
- Abstract(参考訳): 本研究は,母国語における公的な話し方を改善することを目的としたプレゼンテーションプラットフォームに,AIとゲーミフィケーションを適用した効果について検討する。
具体的には、ラジオ番組『Just a Minute』(JAM)を基にしたプラットフォームを探索する。
このゲームでは、プレイヤーは、そのトピックを繰り返すことなく60秒間、そのトピックに精通して話すよう挑戦される。
JAMは、学生が自発的な話し方を改善することや、発話障害(「um」「uh」など)を減らすことなどの利点を提案してきた。
これまでの研究では、学生が公の場で話すことの難しさが浮き彫りになっている。
AI Powered Presentation Platforms (AI-PPPs) は、学生が没入型AIオーディエンスと話し、リアルタイムフィードバックを受け取ることができるもので、生徒の話し方や自信を向上させる方法として研究されている。
これまでのところ、彼らはこの研究が目指す有望な結果を示している。
ヨーク大学の学生グループがJAMプラットフォームの有効性を評価するために入隊している。
質問書に記入して2回ゲームを通してプレイし、最後のアンケートを完了して、ゲームのプレイ経験について議論する。
獲得した点数や破ったルールの数など、様々な統計がゲームプレイ中に収集される。
その結果、学生はゲームが有望であることに気付き、より長くプレイすれば話し方も改善できると信じていた。
短期を超えてゲームの有効性を証明するためには、さらなる作業が必要になる。
関連論文リスト
- Collaborative Storytelling and LLM: A Linguistic Analysis of Automatically-Generated Role-Playing Game Sessions [55.2480439325792]
RPG(ロールプレイングゲーム)とは、プレイヤーが互いに対話して物語を作るゲームである。
この共有物語の新たな形態は、主に口頭で注目されている。
本稿では,大言語モデル(LLM)の言語がRPGセッションの生成を依頼した場合に,どの程度に口頭や書面の機能を示すかを明らかにすることを目的とする。
論文 参考訳(メタデータ) (2025-03-26T15:10:47Z) - Enhancing nonnative speech perception and production through an AI-powered application [0.0]
本研究の目的は、AIを利用したモバイルアプリケーションによるトレーニングが、非ネイティブな音の知覚と生産に与える影響を検討することである。
この介入には、英語の母音を特徴とする録音タスクと発音フィードバックと練習を取り入れたSpeakometer Mobileアプリケーションによるトレーニングが含まれていた。
その結果,介入後の判別精度と目標コントラストの生成に有意な改善が認められた。
論文 参考訳(メタデータ) (2025-03-18T10:05:12Z) - Embracing AI in Education: Understanding the Surge in Large Language Model Use by Secondary Students [53.20318273452059]
OpenAIのChatGPTのような大規模言語モデル(LLM)は、新しい教育の道を開いた。
学校制限にもかかわらず,中高生300人以上を対象に調査を行ったところ,学生の70%がLDMを利用していることがわかった。
我々は、対象特化モデル、パーソナライズドラーニング、AI教室など、このような問題に対処するいくつかのアイデアを提案する。
論文 参考訳(メタデータ) (2024-11-27T19:19:34Z) - Listening for Expert Identified Linguistic Features: Assessment of Audio Deepfake Discernment among Undergraduate Students [0.0]
本稿では,専門家が定義した言語的特徴を聴くことで,大学生が音声深層認識能力を向上させるための教育効果を評価する。
我々の研究は、ディープフェイク識別メカニズムとして、ターゲット言語的手がかりをリスナーに導入することで、情報教育に留まらない。
その結果, 実験群は, 音声クリップの評価における不確実性が統計的に顕著に低下し, 当初不確実であったクリップを正確に識別する能力が向上したことがわかった。
論文 参考訳(メタデータ) (2024-11-21T20:52:02Z) - Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - SpeechPrompt: Prompting Speech Language Models for Speech Processing Tasks [94.10497337235083]
我々はまず,音声処理分野における音声 LM の促進の可能性を探る。
音声処理タスクを音声単位生成タスクに再構成する。
提案手法は, 強い微調整法と比較して, 競争性能を向上できることを示す。
論文 参考訳(メタデータ) (2024-08-23T13:00:10Z) - On the Conversational Persuasiveness of Large Language Models: A Randomized Controlled Trial [10.770999939834985]
制御された無害な環境でAIによる説得の効果を分析する。
その結果、GPT-4を個人情報へのアクセスで議論した参加者は、人間を議論した参加者と比較して、相手との合意が増大する確率が81.7%高かった。
論文 参考訳(メタデータ) (2024-03-21T13:14:40Z) - Learning Through AI-Clones: Enhancing Self-Perception and Presentation Performance [7.151400656424202]
44人の国際学生による混合設計実験は、オンライン英語プレゼンテーションの自己記録ビデオ(自己記録グループ)とAIクローンビデオ(AIクローングループ)を比較した。
その結果、AIクローンは、社会的比較を容易にするために肯定的な「ロールモデル」として機能していた。
論文 参考訳(メタデータ) (2023-10-23T17:20:08Z) - EFL Students' Attitudes and Contradictions in a Machine-in-the-loop
Activity System [5.326832235832844]
そこで本研究では,67名の英語学生の言語学習者に対する態度と矛盾について検討した。
その結果,否定的あるいは混合的な感情を伴う肯定的な態度がみられた。
論文 参考訳(メタデータ) (2023-07-13T07:38:11Z) - Improving Language Model Negotiation with Self-Play and In-Context
Learning from AI Feedback [97.54519989641388]
交渉ゲームにおいて,複数大言語モデル(LLM)が,遊び,振り返り,批判によって自律的に互いに改善できるかどうかを検討する。
私たちが考慮している言語モデルのサブセットだけが、AIフィードバックから自己プレイし、取引価格を改善することができます。
論文 参考訳(メタデータ) (2023-05-17T11:55:32Z) - MERLOT Reserve: Neural Script Knowledge through Vision and Language and
Sound [90.1857707251566]
MERLOT Reserveは、時間とともに動画を共同で表現するモデルである。
我々は、テキストとオーディオのスニペットをMASKトークンに置き換え、正しいマスクアウトスニペットを選択して学習する。
私たちの目標は代替手段よりも早く学習し、大規模に機能します。
論文 参考訳(メタデータ) (2022-01-07T19:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。