論文の概要: A Policy Report Evaluating the National Assessment Program for Literacy and Numeracy (Naplan) Reform in Australia: The Impacts of High Stakes Assessment on Students
- arxiv url: http://arxiv.org/abs/2409.17959v1
- Date: Thu, 26 Sep 2024 15:36:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 16:52:13.021001
- Title: A Policy Report Evaluating the National Assessment Program for Literacy and Numeracy (Naplan) Reform in Australia: The Impacts of High Stakes Assessment on Students
- Title(参考訳): オーストラリアにおけるリテラシー・ナプラン改革プログラムの評価に関する政策報告 : 高校生に対するハイステークス・アセスメントの影響
- Authors: Wenya Zhang,
- Abstract要約: オーストラリアで2008年に開始されたNAPLAN(National Assessment Program for Literacy and Numeracy)改革(National Assessment Program for Literacy and Numeracy)は、オーストラリアで最も重要かつ論争の多い改革である。
本報告はNAPLAN改革の成果と障害を評価するものである。
オンラインテストへの移行、コンテンツとプラットフォームの向上、公共アセスメントのリテラシーの向上、LBOTE教育へのさらなる投資などのレコメンデーションを提案する。
- 参考スコア(独自算出の注目度): 0.087024326813104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The National Assessment Program for Literacy and Numeracy (NAPLAN) Reform in Australia, launched in 2008, has emerged as the country's most significant and contentious reform. However, due to its high-stakes nature and standardization, testing presents various challenges. These challenges include the combination of accountability with the 'My School' website, overlooking higher-order cognitive abilities, exacerbating students' anxiety and stress, and creating inequity for Language Background Other Than English (LBOTE) students. This report assesses the achievements and obstacles of the NAPLAN reform, proposing recommendations such as transitioning to online testing, enhancing content and platforms, increasing public assessment literacy, and investing more in LBOTE education. These suggestions aim to strike a balance between standardized testing and authentic educational pursuits, adapting to the evolving needs of students to create a fair, inclusive educational environment that addresses the demands of the 21st century.
- Abstract(参考訳): オーストラリアで2008年に開始されたNAPLAN(National Assessment Program for Literacy and Numeracy)改革(National Assessment Program for Literacy and Numeracy)は、オーストラリアで最も重要かつ論争の多い改革である。
しかし、その高い特性と標準化のため、テストは様々な課題を提示している。
これらの課題には、説明責任と「マイスクール」のウェブサイトの組み合わせ、高次の認知能力を見渡すこと、生徒の不安とストレスを悪化させること、言語背景以外の英語(LBOTE)の学生に不平等を生み出すことが含まれる。
本報告は、NAPLAN改革の成果と障害を評価し、オンラインテストへの移行、コンテンツとプラットフォームの向上、公的な評価リテラシーの向上、LBOTE教育への投資などの勧告を提案する。
これらの提案は、21世紀の要求に対処する公正で包括的な教育環境を構築するために、学生の進化するニーズに適応して、標準化されたテストと真正な教育追求のバランスを取ることを目的としている。
関連論文リスト
- CJEval: A Benchmark for Assessing Large Language Models Using Chinese Junior High School Exam Data [31.324617466692754]
CJEvalは中国の中学校のエクサム評価に基づくベンチマークである。
26,136個のサンプルから成っている。
このベンチマークを用いて,LLMの潜在的な応用性を評価し,その性能を総合的に分析した。
論文 参考訳(メタデータ) (2024-09-24T16:00:28Z) - The VoxCeleb Speaker Recognition Challenge: A Retrospective [75.40776645175585]
VoxCeleb Speaker Recognition Challenges (VoxSRC)は、2019年から2023年にかけて毎年開催される一連の課題とワークショップである。
課題は主に、様々な環境下で話者認識とダイアリゼーションのタスクを評価した。
私たちは、これらの課題について、彼らが何を探求したのか、課題参加者によって開発された方法、そしてそれらがどのように進化したのかをレビューします。
論文 参考訳(メタデータ) (2024-08-27T08:57:31Z) - Could ChatGPT get an Engineering Degree? Evaluating Higher Education Vulnerability to AI Assistants [175.9723801486487]
我々は,2つのAIアシスタントであるGPT-3.5とGPT-4が適切な回答を得られるかどうかを評価する。
GPT-4は65.8%の質問を正解し、85.1%の質問に対して少なくとも1つの手順で正しい答えを出すことができる。
この結果から,AIの進歩を踏まえて,高等教育におけるプログラムレベルの評価設計の見直しが求められた。
論文 参考訳(メタデータ) (2024-08-07T12:11:49Z) - The Evolution of Learning: Assessing the Transformative Impact of Generative AI on Higher Education [0.0]
ChatGPTのような生成人工知能モデルは人気が高まっている。
本研究では,GAIが大学生や高等教育機関に与える影響について検討する。
論文 参考訳(メタデータ) (2024-04-16T13:19:57Z) - Argument Quality Assessment in the Age of Instruction-Following Large Language Models [45.832808321166844]
そのような応用において重要なタスクは、議論の質を評価することである。
我々は,質概念の多様性と認識の主観性を,議論品質評価における実質的な進歩への主要なハードルとみなす。
インストラクション追従型大規模言語モデル(LLM)がコンテキストを越えた知識を活用できることは,より信頼性の高い評価を可能にしている,と我々は主張する。
論文 参考訳(メタデータ) (2024-03-24T10:43:21Z) - Automatic Essay Scoring in a Brazilian Scenario [0.0]
本稿では,ブラジルのExame Nacional do Ensino M'edio(ENEM)のポルトガル語エッセイに合わせた,新しい自動エッセイスコーリング(AES)アルゴリズムを提案する。
提案手法は,高度な深層学習技術を活用して,学生エッセイの大量評価における効率性とスケーラビリティを目標とした,人間の評価基準に忠実に整合する。
論文 参考訳(メタデータ) (2023-12-29T23:05:18Z) - UKP-SQuARE: An Interactive Tool for Teaching Question Answering [61.93372227117229]
質問応答の指数的増加(QA)は、あらゆる自然言語処理(NLP)コースにおいて必須のトピックとなっている。
本稿では、QA教育のプラットフォームとしてUKP-SQuAREを紹介する。
学生は様々な視点から様々なQAモデルを実行、比較、分析することができる。
論文 参考訳(メタデータ) (2023-05-31T11:29:04Z) - C-Eval: A Multi-Level Multi-Discipline Chinese Evaluation Suite for
Foundation Models [58.42279750824907]
C-Evalは、中国語の文脈における基礎モデルの高度な知識と推論能力を評価するために設計された、中国初の総合的な評価スイートである。
C-Evalは、中学、高校、大学、専門職の4つの困難レベルにまたがる複数の質問を含んでいる。
我々は、C-Eval上で最も先進的なLCMについて、英語と中国語の両方のモデルを含む包括的な評価を行う。
論文 参考訳(メタデータ) (2023-05-15T03:20:19Z) - Creating Large Language Model Resistant Exams: Guidelines and Strategies [0.0]
大規模言語モデル(LLM)は、学術的完全性への潜在的な影響について懸念を提起している。
本稿では,LLMの試験成績と評価への影響について考察する。
本稿では,コンテンツモデレーション,意図的不正確性,モデルの知識ベースを越えた現実シナリオ,効果的な気晴らしオプション,ソフトスキルの評価,非テキスト情報の導入など,LCM耐性試験を作成するためのガイドラインを提案する。
論文 参考訳(メタデータ) (2023-04-18T18:01:32Z) - The Challenges of Assessing and Evaluating the Students at Distance [77.34726150561087]
新型コロナウイルス(COVID-19)の感染拡大が高等教育機関に強い影響を及ぼし、教室の授業は中止された。
本論文は、ポルトガルの高等教育機関がもたらす課題を探求し、評価モデルにもたらす課題を分析することを目的としている。
論文 参考訳(メタデータ) (2021-01-30T13:13:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。