論文の概要: Agentic Educational Content Generation for African Languages on Edge Devices
- arxiv url: http://arxiv.org/abs/2511.07437v1
- Date: Sat, 01 Nov 2025 21:13:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-16 06:38:31.054157
- Title: Agentic Educational Content Generation for African Languages on Edge Devices
- Title(参考訳): エッジデバイスを用いたアフリカ言語のためのエージェント教育コンテンツ生成
- Authors: Ravi Gupta, Guneet Bhatia,
- Abstract要約: 本研究では,エッジデバイス上での教育コンテンツ生成のための自律型エージェントオーケストレーションフレームワークを提案する。
このフレームワークは高い多言語品質を提供し、BLEUスコアは0.688、文化的妥当性は4.4/5、公試されたアフリカの言語は4.2/5だった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Addressing educational inequity in Sub-Saharan Africa, this research presents an autonomous agent-orchestrated framework for decentralized, culturally adaptive educational content generation on edge devices. The system leverages four specialized agents that work together to generate contextually appropriate educational content. Experimental validation on platforms including Raspberry Pi 4B and NVIDIA Jetson Nano demonstrates significant performance achievements. InkubaLM on Jetson Nano achieved a Time-To-First-Token (TTFT) of 129 ms, an average inter-token latency of 33 ms, and a throughput of 45.2 tokens per second while consuming 8.4 W. On Raspberry Pi 4B, InkubaLM also led with 326 ms TTFT and 15.9 tokens per second at 5.8 W power consumption. The framework consistently delivered high multilingual quality, averaging a BLEU score of 0.688, cultural relevance of 4.4/5, and fluency of 4.2/5 across tested African languages. Through potential partnerships with active community organizations including African Youth & Community Organization (AYCO) and Florida Africa Foundation, this research aims to establish a practical foundation for accessible, localized, and sustainable AI-driven education in resource-constrained environments. Keeping focus on long-term viability and cultural appropriateness, it contributes to United Nations SDGs 4, 9, and 10. Index Terms - Multi-Agent Systems, Edge AI Computing, Educational Technology, African Languages, Rural Education, Sustainable Development, UN SDG.
- Abstract(参考訳): 本研究では,サハラ以南のアフリカにおける教育的不平等に対処し,エッジデバイス上での分散的・文化的適応型教育コンテンツ生成のための自律的エージェントオーケストレーションフレームワークを提案する。
このシステムは、コンテキスト的に適切な教育コンテンツを生成するために協力する4つの専門エージェントを活用する。
Raspberry Pi 4BやNVIDIA Jetson Nanoなどのプラットフォーム上での実験的な検証は、大きなパフォーマンス上の成果を示している。
InkubaLM on Jetson Nanoは129ms、平均33ms、スループット45.2kps、Raspberry Pi 4Bでは326msのTTFTと15.9kpsのTTFTを実現した。
このフレームワークは高い多言語品質を提供し、BLEUスコアは0.688、文化的妥当性は4.4/5、公試されたアフリカの言語は4.2/5だった。
この研究は、アフリカ青年コミュニティ機構(AYCO)やフロリダアフリカ財団といった活動的なコミュニティ組織との潜在的なパートナーシップを通じて、資源に制約のある環境での、アクセスしやすく、ローカライズされ、持続可能なAI駆動型教育のための実践的基盤を確立することを目的としている。
長期の生存性と文化的適切性に重点を置いており、国連のSDG4、9、10に貢献している。
インデックス用語 - マルチエージェントシステム、エッジAIコンピューティング、教育技術、アフリカ言語、農村教育、持続可能な開発、UNSDG。
関連論文リスト
- OmniEduBench: A Comprehensive Chinese Benchmark for Evaluating Large Language Models in Education [72.40048732210055]
中国の総合的な教育ベンチマークであるOmniEduBenchを紹介する。
データは、知識次元と栽培次元の2つの中核次元に分けられる。
データセットには、11の一般的な試験質問タイプを含む、さまざまな質問形式がある。
論文 参考訳(メタデータ) (2025-10-30T12:16:29Z) - Evaluating LLMs for Career Guidance: Comparative Analysis of Computing Competency Recommendations Across Ten African Countries [0.0]
本研究では,アフリカ10か国における6つの大規模言語モデルが,エントリーレベルのコンピューティングキャリアの期待をどう表現するかを検討した。
クラウドコンピューティングやプログラミングのような技術的スキルは一貫して現れたが、モデルが非技術的能力にどう対処するかという点で顕著な違いが現れた。
オープンソースモデルは、コンテキスト認識の強化と、技術的スキルと専門スキルのバランスの向上を示し、10カ国中9カ国でトップスコアを獲得した。
論文 参考訳(メタデータ) (2025-10-20T20:04:43Z) - The African Languages Lab: A Collaborative Approach to Advancing Low-Resource African NLP [4.188487384419692]
アフリカの言語は世界の3分の1近くを占めるが、現代のNLP技術に批判的に劣っている。
我々は、体系的なデータ収集、モデル開発、キャパシティビルディングを通じて、この技術的ギャップに対処する包括的な研究イニシアチブであるアフリカ言語研究所を提示する。
論文 参考訳(メタデータ) (2025-10-07T07:42:52Z) - Mafoko: Structuring and Building Open Multilingual Terminologies for South African NLP [3.0720023574418622]
本稿では,アフリカ中心のNOODLフレームワークを用いて,基礎となるMafokoデータセットについて紹介する。
実験では、英語からツシヴェンダ語への機械翻訳の精度とドメイン固有の一貫性が大幅に向上した。
論文 参考訳(メタデータ) (2025-08-05T15:00:02Z) - SSA-COMET: Do LLMs Outperform Learned Metrics in Evaluating MT for Under-Resourced African Languages? [32.57589030501861]
SSA-COMETとSSA-COMET-QEを開発した。
GPT-4o, Claude-3.7, Gemini 2.5 Pro などの最先端 LLM を用いたプロンプトベースアプローチのベンチマークを行った。
実験の結果,SSA-COMETモデルはAfriCOMETよりも優れており,最強のLLM Gemini 2.5 Proと競合することがわかった。
論文 参考訳(メタデータ) (2025-06-05T02:16:56Z) - AfroBench: How Good are Large Language Models on African Languages? [55.35674466745322]
AfroBenchは、64のアフリカ言語にわたるLLMのパフォーマンスを評価するためのベンチマークである。
AfroBenchは9つの自然言語理解データセット、6つのテキスト生成データセット、6つの知識と質問応答タスク、1つの数学的推論タスクで構成される。
論文 参考訳(メタデータ) (2023-11-14T08:10:14Z) - MasakhaNER 2.0: Africa-centric Transfer Learning for Named Entity
Recognition [55.95128479289923]
アフリカ系言語は10億人を超える人々によって話されているが、NLPの研究や開発ではあまり語られていない。
我々は、20のアフリカ言語で最大の人間アノテーション付きNERデータセットを作成します。
最適な転送言語を選択すると、ゼロショットF1スコアが平均14ポイント向上することを示す。
論文 参考訳(メタデータ) (2022-10-22T08:53:14Z) - MasakhaNER: Named Entity Recognition for African Languages [48.34339599387944]
アフリカで10の言語で名前付きエンティティ認識のための、最初の大規模な公開可能な高品質データセットを作成します。
我々は,これらの言語がNERにもたらす課題を理解するために,言語の特徴を詳述する。
論文 参考訳(メタデータ) (2021-03-22T13:12:44Z) - AI4D -- African Language Dataset Challenge [1.4922337373437886]
この作業では、AI4D - African Language dataset Challengeの組織について詳述する。
これは、アフリカの言語データセットの作成、組織化、発見をインセンティブ化するための取り組みである。
我々は特に、タスク固有の教師付き機械学習モデルのトレーニングに使用できる注釈付きデータセットの提出を奨励した。
論文 参考訳(メタデータ) (2020-07-23T08:48:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。