論文の概要: GenAI Voice Mode in Programming Education
- arxiv url: http://arxiv.org/abs/2509.10596v1
- Date: Fri, 12 Sep 2025 15:25:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.690802
- Title: GenAI Voice Mode in Programming Education
- Title(参考訳): プログラミング教育におけるGenAI音声モード
- Authors: Sven Jacobs, Natalie Kiesler,
- Abstract要約: マルチモーダル生成AI(GenAI)を用いたリアルタイム音声インタフェースは、障害のある初心者プログラマのアクセシビリティニーズに対処する可能性がある。
そこで本稿では,Python を学習しながら,9年生9人の音声対話を教室環境における音声対応チューターを用いて分析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time voice interfaces using multimodal Generative AI (GenAI) can potentially address the accessibility needs of novice programmers with disabilities (e.g., related to vision). Yet, little is known about how novices interact with GenAI tools and their feedback quality in the form of audio output. This paper analyzes audio dialogues from nine 9th-grade students using a voice-enabled tutor (powered by OpenAI's Realtime API) in an authentic classroom setting while learning Python. We examined the students' voice prompts and AI's responses (1210 messages) by using qualitative coding. We also gathered students' perceptions via the Partner Modeling Questionnaire. The GenAI Voice Tutor primarily offered feedback on mistakes and next steps, but its correctness was limited (71.4% correct out of 416 feedback outputs). Quality issues were observed, particularly when the AI attempted to utter programming code elements. Students used the GenAI voice tutor primarily for debugging. They perceived it as competent, only somewhat human-like, and flexible. The present study is the first to explore the interaction dynamics of real-time voice GenAI tutors and novice programmers, informing future educational tool design and potentially addressing accessibility needs of diverse learners.
- Abstract(参考訳): マルチモーダル生成AI(GenAI)を用いたリアルタイム音声インタフェースは、障害のある初心者プログラマのアクセシビリティニーズに対処する可能性がある。
しかし、初心者がGenAIツールとどのように相互作用し、彼らのフィードバック品質がオーディオ出力の形でどのように振舞うかについては、ほとんど分かっていない。
そこで本稿では,9年生9人の音声対話を,Pythonを学習しながら,教室環境における音声対応チューター(OpenAIのRealtime APIをベースとする)を用いて分析する。
定性符号化を用いて,学生の音声刺激とAIの応答(1210メッセージ)を検討した。
また,パートナーモデリング質問紙を通じて,学生の認識を収集した。
GenAI Voice Tutorは、主にミスと次のステップに関するフィードバックを提供するが、その正確さは制限された(416のフィードバック出力のうち71.4%が正しい)。
品質問題、特にAIがプログラミングコード要素を発話しようとしたとき、観察された。
学生はGenAI音声チューターを主にデバッグに使用した。
彼らはそれが有能で、わずかに人間らしく、柔軟であると感じた。
本研究は,GenAI教師と初心者プログラマのリアルタイム音声対話のダイナミクスを初めて探求し,将来的な教育ツール設計と多様な学習者のアクセシビリティニーズに対処する可能性を示唆した。
関連論文リスト
- Students' Feedback Requests and Interactions with the SCRIPT Chatbot: Do They Get What They Ask For? [0.0]
生成AI(GenAI)と関連するプログラミング教育ツールに関する先行研究に基づいて,初等学習者を支援するためのSCRIPTを開発した。
SCRIPTは、事前に定義されたプロンプトを通じて、オープンエンドのインタラクションと構造化されたガイダンスを可能にする。
学生がSCRIPTとどのように相互作用するかを,フィードバックの好みに焦点をあてて分析した。
論文 参考訳(メタデータ) (2025-07-23T06:56:26Z) - Using Generative AI in Software Design Education: An Experience Report [0.6827423171182154]
学生はチームベースの課題を完了するためにGenAIを使用する必要があった。
学生はChatGPTがデザインプロセスで役立った多くの方法を特定した。
我々は、ソフトウェア設計クラスにGenAIを効果的にデプロイする方法について、教育者にとって重要な教訓をいくつか挙げた。
論文 参考訳(メタデータ) (2025-06-26T18:40:16Z) - That's Not the Feedback I Need! -- Student Engagement with GenAI Feedback in the Tutor Kai [0.0]
学生にPythonプログラミングタスク、コードエディタ、GenAIフィードバック、コンパイラフィードバックを提供するカスタムWebアプリケーションを構築します。
学習者から得られたフィードバックがどれほどの注意を払っているか、生成したフィードバックがどの程度役に立つか(あるいはそうでないか)について検討する。
その結果、GenAIのフィードバックは一般的に視覚的に注目され、未経験の学生は修正に2倍の時間を費やしていることがわかった。
論文 参考訳(メタデータ) (2025-06-25T13:43:23Z) - FunAudioLLM: Voice Understanding and Generation Foundation Models for Natural Interaction Between Humans and LLMs [63.8261207950923]
FunAudioLLMは、人間と大規模言語モデル(LLM)の間の自然な音声相互作用を強化するために設計されたモデルファミリーである
中心となる2つの革新的なモデルとして、多言語音声認識、感情認識、音声イベント検出を処理するSenseVoiceと、複数の言語、音色、話し方、話者識別を制御した自然言語生成を容易にするCosyVoiceがある。
SenseVoiceとCosyVoiceに関連するモデルは、GitHubでリリースされたトレーニング、推論、微調整コードとともに、ModelscopeとHuggingfaceでオープンソース化されている。
論文 参考訳(メタデータ) (2024-07-04T16:49:02Z) - Large Language Models Meet User Interfaces: The Case of Provisioning Feedback [6.626949691937476]
我々は、GenAIを教育ツールに組み込むためのフレームワークを提案し、我々のツールであるFeedback Copilotにその応用を実証する。
この研究は、教育におけるGenAIの将来についてのコースをグラフ化している。
論文 参考訳(メタデータ) (2024-04-17T05:05:05Z) - Can Language Models Learn to Listen? [96.01685069483025]
本稿では,話者の言葉に基づく社会的対話における聞き手から適切な表情応答を生成するための枠組みを提案する。
提案手法は,VQ-VAEを用いて定量化したリスナーの顔のジェスチャー列であるリスナーの応答を自己回帰的に予測する。
生成したリスナーの動きは,定量的メトリクスと質的ユーザスタディを通じて,言語意味論に精通し,反映していることを示す。
論文 参考訳(メタデータ) (2023-08-21T17:59:02Z) - Giving Feedback on Interactive Student Programs with Meta-Exploration [74.5597783609281]
ウェブサイトやゲームのようなインタラクティブなソフトウェアを開発することは、特にコンピュータ科学を学ぶための魅力的な方法である。
標準的アプローチでは、インストラクターは、学生が実装した対話型プログラムを手動で評価する必要がある。
Code.orgのような何百万ものオンラインプラットフォームは、インタラクティブなプログラムを実装するための代入に関するフィードバックを提供することができない。
論文 参考訳(メタデータ) (2022-11-16T10:00:23Z) - GenNI: Human-AI Collaboration for Data-Backed Text Generation [102.08127062293111]
Table2Textシステムは、機械学習を利用した構造化データに基づいてテキスト出力を生成する。
GenNI (Generation Negotiation Interface) は、対話型ビジュアルシステムである。
論文 参考訳(メタデータ) (2021-10-19T18:07:07Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z) - VoiceCoach: Interactive Evidence-based Training for Voice Modulation
Skills in Public Speaking [55.366941476863644]
ピッチ,ボリューム,速度などの音声特性の変調は,公的な発話を成功させる上で極めて重要である。
音声変調スキルの効果的な訓練を容易にする対話型エビデンスに基づくアプローチであるVoiceCoachを提案する。
論文 参考訳(メタデータ) (2020-01-22T04:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。