論文の概要: A Meta-Analysis of LLM Effects on Students across Qualification, Socialisation, and Subjectification
- arxiv url: http://arxiv.org/abs/2509.22725v1
- Date: Thu, 25 Sep 2025 04:11:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.82519
- Title: A Meta-Analysis of LLM Effects on Students across Qualification, Socialisation, and Subjectification
- Title(参考訳): 質化・社会化・主観化におけるLLM効果のメタ分析
- Authors: Jiayu Huang, Ruoxin Ritter Wang, Jen-Hao Liu, Boming Xia, Yue Huang, Ruoxi Sun, Jason, Xue, Jinan Zou,
- Abstract要約: 大規模言語モデル(LLM)は、教育のソリューションとしてますます位置づけられているが、評価は、パフォーマンス指標の狭さに対する影響を減少させることが多い。
この記事では,“LLMが教育にどのような影響を与えるべきか?
133の実験と準実験のメタ分析(k = 188)を提案する。
- 参考スコア(独自算出の注目度): 14.18239352716059
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) are increasingly positioned as solutions for education, yet evaluations often reduce their impact to narrow performance metrics. This paper reframes the question by asking "what kind of impact should LLMs have in education?" Drawing on Biesta's tripartite account of good education: qualification, socialisation, and subjectification, we present a meta-analysis of 133 experimental and quasi-experimental studies (k = 188). Overall, the impact of LLMs on student learning is positive but uneven. Strong effects emerge in qualification, particularly when LLMs function as tutors in sustained interventions. Socialisation outcomes appear more variable, concentrated in sustained, reflective interventions. Subjectification, linked to autonomy and learner development, remains fragile, with improvements confined to small-scale, long-term studies. This purpose-level view highlights design as the decisive factor: without scaffolds for participation and agency, LLMs privilege what is easiest to measure while neglecting broader aims of education. For HCI and education, the issue is not just whether LLMs work, but what futures they enable or foreclose.
- Abstract(参考訳): 大規模言語モデル(LLM)は、教育のソリューションとしてますます位置づけられているが、評価は、パフォーマンス指標の狭さに対する影響を減少させることが多い。
この記事では,“LLMが教育にどのような影響を与えるべきか?
ビエスタの良質な教育に関する三部作的説明(資格、社会化、主観化)を参考に、我々は133の実験的研究と準実験研究(k = 188)のメタアナリシスを提示する。
全体として、LLMが学生の学習に与える影響は肯定的だが不均一である。
強い効果は、特に持続的な介入において、LSMが家庭教師として機能する場合に現れる。
社会化の結果は、より変動し、持続的で反射的な介入に集中しているように見える。
自律性と学習者の発達に関連する主観化は依然として脆弱であり、小規模な長期的な研究に限られている。
この目的レベルの見解は、デザインを決定的な要素として強調する: 参加とエージェンシーのための足場がなければ、LLMは、より広範な教育目的を無視しながら、最も測定し易いものを特権化する。
HCIと教育にとって問題は、LLMが機能するかどうかだけでなく、それらが実現している将来や予兆である。
関連論文リスト
- ZPD-SCA: Unveiling the Blind Spots of LLMs in Assessing Students' Cognitive Abilities [19.704166621790836]
大規模言語モデル(LLM)は、教育応用の可能性を示しているが、読み物の認知的アライメントを正確に評価する能力は、まだ十分に研究されていない。
ステージレベルの中国語読解難易度を評価するための新しいベンチマークであるZPD-SCAを紹介する。
実験の結果,LLMはゼロショット学習のシナリオでは不十分であり,Qwen-max と GLM はランダムな推測の確率よりも低い値を示した。
論文 参考訳(メタデータ) (2025-08-20T03:08:47Z) - Rethinking LLM Unlearning Objectives: A Gradient Perspective and Go Beyond [39.39558417665764]
大きな言語モデル(LLM)は、著作権やプライバシー侵害などの潜在的なリスクを特定するために厳格な監査を受けなければならない。
本稿では,学習対象がモデル性能に与える影響を定量化する勾配効果(G効果)のツールキットを提案する。
論文 参考訳(メタデータ) (2025-02-26T16:59:21Z) - Whose ChatGPT? Unveiling Real-World Educational Inequalities Introduced by Large Language Models [3.005864877840858]
ChatGPTや他の類似のツールは、学習経験と成果を改善するために、大きな言語モデル(LLM)の可能性について、大きな興奮と実験的努力を喚起しました。
しかし、LLMが教育的価値に与える影響を体系的に調査する研究はほとんどない。
我々は2021年から2024年までの2391のコースで16,791人の大学生から1,140,328人の学術論文を米国内の公立の少数派機関で分析した。
言語学的に有利な学生と不利な学生の書き込み品質のギャップが狭まりつつあり, 学生全体の書き込み品質が徐々に向上していることがわかった。
論文 参考訳(メタデータ) (2024-10-29T17:35:46Z) - The LLM Effect: Are Humans Truly Using LLMs, or Are They Being Influenced By Them Instead? [60.01746782465275]
大規模言語モデル(LLM)は、様々な分析タスクにおいて、人間のパフォーマンスに近い能力を示している。
本稿では,Human-LLMパートナーシップに着目した構造化ユーザスタディにより,特殊作業におけるLLMの効率と精度について検討する。
論文 参考訳(メタデータ) (2024-10-07T02:30:18Z) - AI Meets the Classroom: When Do Large Language Models Harm Learning? [0.0]
大規模言語モデル(LLM)が学習結果に与える影響は,利用行動に依存することを示す。
LLMは学習を改善する大きな可能性を示しているが、それらの使用は教育的な文脈に合わせて調整されなければならない。
論文 参考訳(メタデータ) (2024-08-29T17:07:46Z) - The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - Comprehensive Reassessment of Large-Scale Evaluation Outcomes in LLMs: A Multifaceted Statistical Approach [64.42462708687921]
評価の結果、スケーリング、トレーニングタイプ、アーキテクチャなどの要因がLLMのパフォーマンスに大きな影響を与えていることが明らかになった。
本研究は, これらのLCMの徹底的な再検討に着手し, 現状評価手法における不整合性に着目した。
これには、ANOVA、Tukey HSDテスト、GAMM、クラスタリング技術などが含まれる。
論文 参考訳(メタデータ) (2024-03-22T14:47:35Z) - A Survey on Evaluation of Large Language Models [87.60417393701331]
大規模言語モデル(LLM)は、学術と産業の両方で人気が高まっている。
本稿では,評価方法,評価方法,評価方法の3つの重要な側面に焦点をあてる。
論文 参考訳(メタデータ) (2023-07-06T16:28:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。