論文の概要: Evaluating a Learned Admission-Prediction Model as a Replacement for
Standardized Tests in College Admissions
- arxiv url: http://arxiv.org/abs/2302.03610v3
- Date: Tue, 23 May 2023 17:18:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 00:25:25.447205
- Title: Evaluating a Learned Admission-Prediction Model as a Replacement for
Standardized Tests in College Admissions
- Title(参考訳): 大学入試における標準試験の代替としての学習入試モデルの評価
- Authors: Hansol Lee, Ren\'e F. Kizilcec, Thorsten Joachims
- Abstract要約: 大学入学事務所は歴史的に、審査のために大規模な応募者プールを実行可能なサブセットに編成するために標準化されたテストスコアに依存してきた。
サブセット生成における標準化テストの役割を置き換えるための機械学習ベースのアプローチを検討する。
過去の入試データに基づいてトレーニングされた予測モデルはSATモデルよりも優れており、最終入試クラスの人口構成と一致していることがわかった。
- 参考スコア(独自算出の注目度): 21.70450099249114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A growing number of college applications has presented an annual challenge
for college admissions in the United States. Admission offices have
historically relied on standardized test scores to organize large applicant
pools into viable subsets for review. However, this approach may be subject to
bias in test scores and selection bias in test-taking with recent trends toward
test-optional admission. We explore a machine learning-based approach to
replace the role of standardized tests in subset generation while taking into
account a wide range of factors extracted from student applications to support
a more holistic review. We evaluate the approach on data from an undergraduate
admission office at a selective US institution (13,248 applications). We find
that a prediction model trained on past admission data outperforms an SAT-based
heuristic and matches the demographic composition of the last admitted class.
We discuss the risks and opportunities for how such a learned model could be
leveraged to support human decision-making in college admissions.
- Abstract(参考訳): 大学アプリケーションの増加は、米国での大学入学に毎年挑戦している。
入場事務所は歴史的に標準テストスコアに依存しており、審査のために大きな応募者プールを実行可能なサブセットに整理している。
しかし、このアプローチは、テストのスコアのバイアスと、最近のテストオプションの受け入れ傾向によるテストテイクの選択バイアスが伴う可能性がある。
より総合的なレビューを支援するために,学生アプリケーションから抽出した幅広い要因を考慮しつつ,サブセット生成における標準化テストの役割を置き換えるための機械学習ベースのアプローチを検討する。
選択的な米国機関(13,248件)の学部受験所のデータに対するアプローチを評価した。
過去の入学者データに基づいてトレーニングされた予測モデルは、satベースのヒューリスティックよりも優れており、最終入学クラスの人口構成に合致する。
大学入試における人間の意思決定を支援するために、このような学習モデルをどのように活用できるかのリスクと機会について論じる。
関連論文リスト
- Context-Aware Testing: A New Paradigm for Model Testing with Large Language Models [49.06068319380296]
我々は,コンテキストを帰納バイアスとして用いて意味のあるモデル障害を探索するコンテキスト認識テスト(CAT)を導入する。
最初のCATシステムSMART Testingをインスタンス化し、大きな言語モデルを用いて、関連性があり、起こりうる失敗を仮説化します。
論文 参考訳(メタデータ) (2024-10-31T15:06:16Z) - Algorithms for College Admissions Decision Support: Impacts of Policy Change and Inherent Variability [18.289154814012996]
先進的な応募者ランキングアルゴリズムからレースデータを除去することで、そのプールの学力を高めることなく、トップランクのプールの多様性を低減できることを示す。
個人に対する政策変更の影響を、政策変更に起因する応募者の仲裁と無作為性に起因する仲裁とを比較して測定する。
論文 参考訳(メタデータ) (2024-06-24T14:59:30Z) - VLBiasBench: A Comprehensive Benchmark for Evaluating Bias in Large Vision-Language Model [72.13121434085116]
VLBiasBenchは、LVLM(Large Vision-Language Models)におけるバイアスの評価を目的としたベンチマークである。
我々は、年齢、障害状態、性別、国籍、身体的外観、人種、宗教、職業、社会的経済状態、および2つの交叉バイアスカテゴリー(人種x性、人種x社会経済状態)を含む9つの異なる社会バイアスカテゴリーを含むデータセットを構築した。
15のオープンソースモデルと1つの高度なクローズドソースモデルに対して広範な評価を行い、これらのモデルから明らかになったバイアスに関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2024-06-20T10:56:59Z) - Towards Personalized Evaluation of Large Language Models with An
Anonymous Crowd-Sourcing Platform [64.76104135495576]
大規模言語モデルのための匿名クラウドソーシング評価プラットフォームであるBingJianを提案する。
このプラットフォームを通じて、ユーザーは質問を提出し、パーソナライズされ、潜在的に幅広い機能でモデルをテストできる。
論文 参考訳(メタデータ) (2024-03-13T07:31:20Z) - Admission Prediction in Undergraduate Applications: an Interpretable
Deep Learning Approach [0.6906005491572401]
本稿は,受験委員会の学部受験決定を検証することの課題について論じる。
本稿では、フィードフォワードと入力凸ニューラルネットワークというディープラーニングに基づく分類手法を提案する。
私たちのモデルは、従来の機械学習ベースのアプローチで最高のパフォーマンスを保ちながら、3.03%のマージンで高い精度を実現しています。
論文 参考訳(メタデータ) (2024-01-22T05:44:43Z) - From Static Benchmarks to Adaptive Testing: Psychometrics in AI Evaluation [60.14902811624433]
本稿では,静的評価手法から適応テストへのパラダイムシフトについて論じる。
これには、ベンチマークで各テスト項目の特性と価値を推定し、リアルタイムでアイテムを動的に調整することが含まれる。
我々は、AI評価にサイコメトリックを採用する現在のアプローチ、アドバンテージ、そして根底にある理由を分析します。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - AGIEval: A Human-Centric Benchmark for Evaluating Foundation Models [122.63704560157909]
我々は,人間中心の標準化試験の文脈で基礎モデルを評価するために設計された新しいベンチマークであるAGIEvalを紹介する。
GPT-4, ChatGPT, Text-Davinci-003 など,最先端基盤モデルの評価を行った。
GPT-4はSAT、LSAT、数学の競争で平均的な人事成績を上回り、SAT Mathテストでは95%の精度で、中国国立大学入試では92.5%の精度で合格している。
論文 参考訳(メタデータ) (2023-04-13T09:39:30Z) - A Comprehensive Survey on Test-Time Adaptation under Distribution Shifts [143.14128737978342]
新たなパラダイムであるテスト時適応は、事前トレーニングされたモデルをテスト中にラベルのないデータに適用し、予測を行う可能性がある。
このパラダイムの最近の進歩は、推論に先立って自己適応モデルのトレーニングにラベルのないデータを活用するという大きな利点を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-03-27T16:32:21Z) - Using a Binary Classification Model to Predict the Likelihood of
Enrolment to the Undergraduate Program of a Philippine University [0.0]
本研究はフィリピンの大学における入所資格に影響する新入生応募者の諸特性について分析した。
受験生が施設への入学を追求する確率を評価するために,ロジスティック回帰を用いた予測モデルを開発した。
論文 参考訳(メタデータ) (2020-10-26T06:58:03Z) - Intersectional Affirmative Action Policies for Top-k Candidates
Selection [3.4961413413444817]
本研究では,トップk候補を応募者のプールから選抜する問題について検討する。
我々は,一部の候補者が歴史的かつ現在の不利を経験している状況を考える。
そこで本研究では,OECD国における学力評価と学士号取得のデータセットを用いて,この問題を解き,解析し,評価する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-29T12:27:18Z) - Towards Data-Driven Affirmative Action Policies under Uncertainty [3.9293125023197595]
我々は、承認された応募者数を過小評価されたグループから増やそうとする肯定的な行動方針を考察する。
このような方針は、申請期間の開始前に発表する必要があるため、各プログラムに適用される学生の得点分布について不確実性がある。
本稿では,過去のデータに基づいてトレーニングされた予測モデルを用いて,そのようなポリシーのパラメータを最適化する可能性について検討する。
論文 参考訳(メタデータ) (2020-07-02T15:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。