論文の概要: MultiAiTutor: Child-Friendly Educational Multilingual Speech Generation Tutor with LLMs
- arxiv url: http://arxiv.org/abs/2508.08715v1
- Date: Tue, 12 Aug 2025 07:58:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.342016
- Title: MultiAiTutor: Child-Friendly Educational Multilingual Speech Generation Tutor with LLMs
- Title(参考訳): MultiAiTutor:LLMを用いた子ども向けの教育用多言語音声生成チュータ
- Authors: Xiaoxue Gao, Huayun Zhang, Nancy F. Chen,
- Abstract要約: MultiAiTutorは、子供に優しいデザインの教育用多言語生成AIチューターである。
LLMアーキテクチャを用いた年齢適応型多言語音声生成手法を提案する。
- 参考スコア(独自算出の注目度): 38.122477830163255
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative speech models have demonstrated significant potential in personalizing teacher-student interactions, offering valuable real-world applications for language learning in children's education. However, achieving high-quality, child-friendly speech generation remains challenging, particularly for low-resource languages across diverse languages and cultural contexts. In this paper, we propose MultiAiTutor, an educational multilingual generative AI tutor with child-friendly designs, leveraging LLM architecture for speech generation tailored for educational purposes. We propose to integrate age-appropriate multilingual speech generation using LLM architectures, facilitating young children's language learning through culturally relevant image-description tasks in three low-resource languages: Singaporean-accent Mandarin, Malay, and Tamil. Experimental results from both objective metrics and subjective evaluations demonstrate the superior performance of the proposed MultiAiTutor compared to baseline methods.
- Abstract(参考訳): 生成型音声モデルは、教師と学生の相互作用をパーソナライズし、子どもの教育における言語学習に有用な実世界の応用を提供する上で、大きな可能性を示している。
しかし、高品質で親しみやすい音声生成を実現することは、特に様々な言語や文化的な文脈における低リソース言語において、依然として困難である。
本稿では,子どもに親しみやすいデザインの教育用多言語生成型AIチューターであるMultiAiTutorを提案する。
LLMアーキテクチャを用いて,シンガポール・アセント・マンダリン,マレー,タミルの3つの低リソース言語における,文化的に関連のある画像記述タスクを通じて,幼児の言語学習を促進するために,年齢に適した多言語音声生成を統合することを提案する。
主観的評価と主観的評価の両方による実験結果は,ベースライン法と比較して提案手法の優れた性能を示す。
関連論文リスト
- Simulating LLM-to-LLM Tutoring for Multilingual Math Feedback [11.889826908536941]
大規模言語モデル(LLM)を用いた多言語チューター-学生間相互作用の大規模シミュレーションについて述べる。
より強いモデルは教師の役割を担い、ヒントの形でフィードバックを生成し、弱いモデルは生徒をシミュレートする。
本研究では,学生の入力言語,教師のフィードバック言語,モデル選択,言語資源レベルがパフォーマンスにどのように影響するかを検討する。
論文 参考訳(メタデータ) (2025-06-05T11:53:04Z) - SingaKids: A Multilingual Multimodal Dialogic Tutor for Language Learning [33.91186948786452]
画像記述タスクによる言語学習を支援するための対話型チューターであるSingaKidsを紹介する。
本システムでは, 画像キャプション, 多言語対話, 音声理解, 係り受け音声生成を統合し, 没入型学習環境を構築する。
論文 参考訳(メタデータ) (2025-06-03T03:56:45Z) - Lens: Rethinking Multilingual Enhancement for Large Language Models [70.85065197789639]
大規模言語モデル(LLM)における多言語機能向上のための新しいアプローチであるLensを提案する。
Lensは2つの部分空間で機能する: 言語に依存しない部分空間で、ターゲット言語と中心言語を一致させて強力な意味表現を継承する部分空間、言語固有の部分空間で、ターゲット言語と中心言語を分離して言語的特異性を保存する部分空間である。
レンズは、モデルの英語能力を維持しながら、多言語のパフォーマンスを著しく向上させ、既存の訓練後のアプローチと比べて計算コストの低い結果を得る。
論文 参考訳(メタデータ) (2024-10-06T08:51:30Z) - SeaLLMs 3: Open Foundation and Chat Multilingual Large Language Models for Southeast Asian Languages [77.75535024869224]
東南アジアの言語に合わせたSeaLLMsモデルファミリーの最新版SeaLLMs 3を紹介します。
SeaLLMs 3は、英語、中国語、インドネシア語、ベトナム語、タイ語、タガログ語、マレー語、ビルマ語、クメール語、ラオス語、タミル語、ジャワ語など、この地域で話される言語全般をカバーすることで、このギャップを埋めることを目指している。
我々のモデルは、世界的知識、数学的推論、翻訳、命令の追従といったタスクに優れており、同様の大きさのモデルで最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-07-29T03:26:22Z) - Teaching LLMs to Abstain across Languages via Multilingual Feedback [40.84205285309612]
多言語フィードバックは,多様な言語,文化,コミュニティ間の知識ギャップを識別する上で有効であることを示す。
大規模な実験により、多言語フィードバックアプローチは、様々な強いベースラインよりも優れていることが示された。
さらに分析したところ、多言語フィードバックは多言語話者に役立てるための効果的かつ公平な回避戦略であることがわかった。
論文 参考訳(メタデータ) (2024-06-22T21:59:12Z) - Is Translation All You Need? A Study on Solving Multilingual Tasks with Large Language Models [79.46179534911019]
大規模言語モデル (LLM) は多言語機能を示しているが、ほとんどは不均衡なトレーニングコーパスのため英語中心である。
実世界のユーザクエリと非英語中心のLLMに評価を拡張し、多言語性能のより広範な評価を提供する。
論文 参考訳(メタデータ) (2024-03-15T12:47:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。