論文の概要: An NLP Crosswalk Between the Common Core State Standards and NAEP Item Specifications
- arxiv url: http://arxiv.org/abs/2405.17284v2
- Date: Fri, 31 May 2024 21:30:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 13:59:47.273710
- Title: An NLP Crosswalk Between the Common Core State Standards and NAEP Item Specifications
- Title(参考訳): 共通コア状態標準とNAEP項目仕様のNLP横断歩道
- Authors: Gregory Camilli,
- Abstract要約: 項目仕様とコンテンツ標準の横断歩道を確立する際に,NLPをベースとした手法について述べる。
この手順は、数学の共通中核状態標準(Common Core State Standards)を、2026年の国家教育進歩評価(National Assessment of Educational Progress)の項目仕様に適合させるために用いられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Natural language processing (NLP) is rapidly developing for applications in educational assessment. In this paper, I describe an NLP-based procedure that can be used to support subject matter experts in establishing a crosswalk between item specifications and content standards. This paper extends recent work by proposing and demonstrating the use of multivariate similarity based on embedding vectors for sentences or texts. In particular, a hybrid regression procedure is demonstrated for establishing the match of each content standard to multiple item specifications. The procedure is used to evaluate the match of the Common Core State Standards (CCSS) for mathematics at grade 4 to the corresponding item specifications for the 2026 National Assessment of Educational Progress (NAEP).
- Abstract(参考訳): 自然言語処理(NLP)は、教育評価の分野で急速に普及している。
本稿では,項目仕様とコンテンツ標準の横断歩道を確立する際に,主題の専門家を支援するためのNLPベースの手順について述べる。
本稿では,文章やテキストの埋め込みベクトルに基づく多変量類似性(multivariate similarity)の提案と実証により,最近の研究を拡張した。
特に、各コンテンツ標準と複数のアイテム仕様との整合性を確立するためのハイブリッド回帰手順が示される。
この手順は、数学のCCSS(Common Core State Standards)と、2026年の国家教育進歩評価(National Assessment of Educational Progress、NAEP)の項目仕様との一致を評価するために使用される。
関連論文リスト
- A Preliminary Study of Multilingual Code Language Models for Code Generation Task Using Translated Benchmarks [0.0]
コード生成のために構築されたオープンソースの多言語CLMであるPoly-Coderの性能を評価する。
以上の結果から,これらのベンチマークで得られた結果は,トレーニングフェーズで使用する評価指標とよく一致していることがわかった。
これらの初期の洞察は、より包括的な実証研究の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2024-11-23T06:40:47Z) - Guidelines for Fine-grained Sentence-level Arabic Readability Annotation [9.261022921574318]
Balanced Arabic Readability Evaluation Corpus (BAREC) プロジェクトは、さまざまな可読性レベルに対応する包括的なアラビア語リソースの必要性に対処するために設計されている。
Taha/Arabi21の可読性参照にインスパイアされたBARECは、19の異なるレベルにわたる文レベルのアラビア文字の可読性を評価するための標準化された参照を提供することを目指している。
本稿は,10,631文・フレーズ(113,651語)の分析を通じて,本ガイドラインに焦点をあてたものである。
論文 参考訳(メタデータ) (2024-10-11T09:59:46Z) - Benchmarking Large Language Models for Conversational Question Answering in Multi-instructional Documents [61.41316121093604]
対話型質問応答(CQA)の文脈における大規模言語モデル(LLM)を評価するための新しいベンチマークであるInsCoQAを提案する。
InsCoQAは、百科事典スタイルの教育内容から派生したもので、複数の文書から手続き的ガイダンスを抽出し、解釈し、正確に要約する能力のモデルを評価する。
また,LLM支援型評価器であるInsEvalを提案する。
論文 参考訳(メタデータ) (2024-10-01T09:10:00Z) - Exploring Ordinality in Text Classification: A Comparative Study of Explicit and Implicit Techniques [3.197435100145382]
日常分類(OC)は自然言語処理(NLP)における課題である。
OCに挑戦する以前のアプローチは、ラベルの順序性について明確に説明されるような、既存の変更や新規な損失関数の作成に重点を置いていた。
Pretrained Language Models (PLMs) の出現により、ラベルのtextbfimplicit セマンティクスを通じて、オーディナリティに取り組むことが可能になった。
論文 参考訳(メタデータ) (2024-05-20T04:31:04Z) - An Inclusive Notion of Text [69.36678873492373]
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
言語的および非言語的要素の2層分類を導入し,NLPモデリングに使用することができる。
論文 参考訳(メタデータ) (2022-11-10T14:26:43Z) - Revise and Resubmit: An Intertextual Model of Text-based Collaboration
in Peer Review [52.359007622096684]
ピアレビューは、ほとんどの科学分野における出版プロセスの重要な要素である。
既存のNLP研究は個々のテキストの分析に重点を置いている。
編集補助は、しばしばテキストのペア間の相互作用をモデル化する必要がある。
論文 参考訳(メタデータ) (2022-04-22T16:39:38Z) - Unsupervised Attention-based Sentence-Level Meta-Embeddings from
Contextualised Language Models [15.900069711477542]
本稿では,文脈適応型単語埋め込みモデルを独立に訓練した文レベルのメタ埋め込み学習手法を提案する。
提案手法は教師なしで,特定の下流タスクとは無関係である。
実験の結果,提案手法は従来提案した文レベルのメタ埋め込み法よりも優れていた。
論文 参考訳(メタデータ) (2022-04-16T08:20:24Z) - Benchmarking Generalization via In-Context Instructions on 1,600+
Language Tasks [95.06087720086133]
Natural-Instructions v2 は 1,600 以上の多種多様な言語タスクとその専門家による命令のコレクションである。
ベンチマークでは、タグ付け、インフィル、書き換えなど、70以上の異なるタスクタイプがカバーされている。
このベンチマークにより、モデルのクロスタスク一般化の大規模評価が可能になる。
論文 参考訳(メタデータ) (2022-04-16T03:12:30Z) - Multi-view Subword Regularization [111.04350390045705]
マルチビューサブワード正規化(MVR)は、標準でトークン化された入力と確率的セグメンテーションとの整合性を強制する手法です。
XTREMEマルチ言語ベンチマークの結果は、MVRが標準セグメンテーションアルゴリズムよりも最大2.5ポイントの一貫性のある改善をもたらすことを示している。
論文 参考訳(メタデータ) (2021-03-15T16:07:42Z) - NEMO: Frequentist Inference Approach to Constrained Linguistic Typology
Feature Prediction in SIGTYP 2020 Shared Task [83.43738174234053]
タイプ的特徴間の相関関係を表現するために頻繁な推論を用い、この表現を用いて、個々の特徴を予測する単純なマルチクラス推定器を訓練する。
テスト言語149言語に対して,マイクロ平均精度0.66を達成できた。
論文 参考訳(メタデータ) (2020-10-12T19:25:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。