論文の概要: Advancing Global South University Education with Large Language Models
- arxiv url: http://arxiv.org/abs/2410.07139v1
- Date: Mon, 23 Sep 2024 07:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 22:06:43.477817
- Title: Advancing Global South University Education with Large Language Models
- Title(参考訳): 大規模言語モデルによるグローバル・サウス大学教育の推進
- Authors: Kemas Muslim L, Toru Ishida, Aditya Firman Ihsan, Rikman Aherliwan Rudawan,
- Abstract要約: 研究は、グローバル・サウスとグローバル・ノースの間の高等教育の質の格差を示している。
グローバル・サウスの生徒と教師の比率は、グローバル・ノースの生徒よりもかなり高い。
インドネシア大学は、大きな言語モデルを統合することで品質学習と教育を強化する実験を開始した。
- 参考スコア(独自算出の注目度): 0.22499166814992438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, it has been observed that the center of gravity for the volume of higher education has shifted to the Global South. However, research indicates a widening disparity in the quality of higher education between the Global South and the Global North. Although investments in higher education within the Global South have increased, the rapid surge in student numbers has resulted in a decline in public expenditure per student. For instance, the student-to-teacher ratio in the Global South is significantly higher compared to that in the Global North, which poses a substantial barrier to the implementation of creative education. In response, Telkom University in Indonesia has embarked on an experiment to enhance the quality of learning and teaching by integrating large language models (LLMs) such as ChatGPT into five of its courses-Mathematics, English, Computing, Computer Systems, and Creative Media. This article elucidates the ongoing experimental plan and explores how the integration of LLMs could contribute to addressing the challenges currently faced by higher education in the Global South.
- Abstract(参考訳): 近年,高等教育量の重心がグローバル・サウスにシフトしていることが観察されている。
しかし、研究は、グローバル・サウスとグローバル・ノースの間の高等教育の質の格差の拡大を示唆している。
グローバル・サウスにおける高等教育への投資は増加しているが、学生数の増加は学生1人当たりの公共支出の減少につながっている。
例えば、グローバル・サウスの学生と教師の比率は、創造的な教育を実施する上で大きな障壁となるグローバル・ノースのそれよりも著しく高い。
インドネシアのテルコム大学は、ChatGPTのような大きな言語モデル(LLM)を、数学、英語、コンピューティング、コンピュータシステム、クリエイティブメディアの5つのコースに統合することで、学習と教育の質を高める実験を開始した。
本稿では、現在進行中の実験計画を解明し、グローバル・サウスにおける高等教育が直面している課題にLCMの統合がどう貢献するかを考察する。
関連論文リスト
- Whose ChatGPT? Unveiling Real-World Educational Inequalities Introduced by Large Language Models [3.005864877840858]
ChatGPTや他の類似のツールは、学習経験と成果を改善するために、大きな言語モデル(LLM)の可能性について、大きな興奮と実験的努力を喚起しました。
しかし、LLMが教育的価値に与える影響を体系的に調査する研究はほとんどない。
我々は2021年から2024年までの2391のコースで16,791人の大学生から1,140,328人の学術論文を米国内の公立の少数派機関で分析した。
言語学的に有利な学生と不利な学生の書き込み品質のギャップが狭まりつつあり, 学生全体の書き込み品質が徐々に向上していることがわかった。
論文 参考訳(メタデータ) (2024-10-29T17:35:46Z) - From MOOC to MAIC: Reshaping Online Teaching and Learning through LLM-driven Agents [78.15899922698631]
MAIC(Massive AI-empowered Course)は、LLM駆動のマルチエージェントシステムを活用して、AIが強化された教室を構築するオンライン教育の新たな形態である。
中国一の大学である清華大学で予備的な実験を行う。
論文 参考訳(メタデータ) (2024-09-05T13:22:51Z) - Generative AI in Higher Education: A Global Perspective of Institutional Adoption Policies and Guidelines [0.0]
本研究は,世界6大学40校の高等教育におけるGAI導入戦略を検討するために,Diffusion of Innovations Theoryを利用する。
その結果,大学によるGAI統合への積極的アプローチが明らかとなり,学術的完全性,教育と学習の強化,エクイティが強調された。
論文 参考訳(メタデータ) (2024-05-20T05:46:38Z) - Large Language Models for Education: A Survey [32.42330148200439]
大規模言語モデル(LLM)は、様々なアプリケーションでますます使われている。
LLMをスマート教育(LLMEdu)に利用することは、世界中の国々にとって重要な戦略的方向性である。
LLMは、教育の質の向上、教育モデルの変更、教師の役割の変更において大きな期待を示してきたが、これらの技術は依然としていくつかの課題に直面している。
論文 参考訳(メタデータ) (2024-05-12T01:50:01Z) - Large Language Models for Education: A Survey and Outlook [69.02214694865229]
各視点の技術的進歩を体系的にレビューし、関連するデータセットとベンチマークを整理し、教育におけるLSMの展開に伴うリスクと課題を特定する。
本調査は、LLMの力を利用して教育実践を変革し、より効果的なパーソナライズされた学習環境を育むための、教育者、研究者、政策立案者のための総合的な技術図を提供することを目的とする。
論文 参考訳(メタデータ) (2024-03-26T21:04:29Z) - LLaMA Beyond English: An Empirical Study on Language Capability Transfer [49.298360366468934]
我々は、言語生成の能力と指示を英語以外の言語に効果的に伝達する方法に焦点をあてる。
本稿では,語彙拡張や事前学習,トランスファーに対する指導指導などの重要な要因が与える影響について分析する。
C-Eval、MMLU、AGI-Eval、GAokao-Benchの4つの広く使われている標準テストベンチマークを採用しています。
論文 参考訳(メタデータ) (2024-01-02T06:29:02Z) - Adapting Large Language Models for Education: Foundational Capabilities, Potentials, and Challenges [60.62904929065257]
大規模言語モデル(LLM)は、個々の要求を解釈することでこの問題を解決する可能性を提供する。
本稿では, 数学, 文章, プログラミング, 推論, 知識に基づく質問応答など, 教育能力に関する最近のLLM研究を概観する。
論文 参考訳(メタデータ) (2023-12-27T14:37:32Z) - Simpson's Paradox and Lagging Progress in Completion Trends of
Underrepresented Students in Computer Science [0.09831489366502298]
コンピュータサイエンス(CS)コミュニティにとって、様々な背景を持つ学生の積極的な参加と成功を保証することが不可欠である。
この研究は、CSと他の研究分野を比較し、女性、黒人、ヒスパニック系、ラテン系の3つのグループから学生を成功させた。
データ駆動型アプローチを用いることで、CSの未表現グループにおける成功傾向が、他の分野に遅れを取っていることが示される。
論文 参考訳(メタデータ) (2023-11-25T01:00:23Z) - Investigating Participation Mechanisms in EU Code Week [68.8204255655161]
デジタル・コンピテンス(デジタル・コンピテンス、Digital competence、DC)は、デジタル技術の信頼性、批判、利用のための幅広いスキル、態度、知識のセットである。
この写本の目的は、コード・ウィークのEU加盟国への参加に関する詳細な統計学的記述を提供することである。
論文 参考訳(メタデータ) (2022-05-29T19:16:03Z) - Disadvantaged students increase their academic performance through
collective intelligence exposure in emergency remote learning due to COVID 19 [105.54048699217668]
新型コロナウイルス(COVID-19)危機の間、世界中の教育機関が対面指導から緊急遠隔教育(ERT)へと移行した。
我々は,7,528人の大学生のデータを分析したところ,議論フォーラムにおける学生間の協調的・合意的ダイナミクスが最終GPAに肯定的な影響を及ぼすことがわかった。
自然言語処理を用いて,高校生の学習成績が低かった1年生が,議論フォーラムでよりコンテンツ集約的な投稿に晒されていることを示す。
論文 参考訳(メタデータ) (2022-03-10T20:23:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。