論文の概要: Quantifying Holistic Review: A Multi-Modal Approach to College Admissions Prediction
- arxiv url: http://arxiv.org/abs/2507.15862v1
- Date: Sat, 12 Jul 2025 16:58:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-27 08:26:15.947733
- Title: Quantifying Holistic Review: A Multi-Modal Approach to College Admissions Prediction
- Title(参考訳): Quantifying Holistic Review: 大学入学予測に対するマルチモーダルアプローチ
- Authors: Jun-Wei Zeng, Jerry Shen,
- Abstract要約: Comprehensive Applicant Profile Score (CAPS) は、総合的な大学入学評価を定量的にモデル化し解釈するための新しいフレームワークである。
CAPSは応募者のプロフィールを3つの解釈可能な要素に分解する。
- 参考スコア(独自算出の注目度): 1.878433493707693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces the Comprehensive Applicant Profile Score (CAPS), a novel multi-modal framework designed to quantitatively model and interpret holistic college admissions evaluations. CAPS decomposes applicant profiles into three interpretable components: academic performance (Standardized Academic Score, SAS), essay quality (Essay Quality Index, EQI), and extracurricular engagement (Extracurricular Impact Score, EIS). Leveraging transformer-based semantic embeddings, LLM scoring, and XGBoost regression, CAPS provides transparent and explainable evaluations aligned with human judgment. Experiments on a synthetic but realistic dataset demonstrate strong performance, achieving an EQI prediction R^2 of 0.80, classification accuracy over 75%, a macro F1 score of 0.69, and a weighted F1 score of 0.74. CAPS addresses key limitations in traditional holistic review -- particularly the opacity, inconsistency, and anxiety faced by applicants -- thus paving the way for more equitable and data-informed admissions practices.
- Abstract(参考訳): 本稿では,総合的大学入学評価を定量的にモデル化し,解釈する新しいマルチモーダルフレームワークであるComprehensive Applicant Profile Score(CAPS)を紹介する。
CAPSは、応募者のプロファイルを3つの解釈可能な要素に分解する: 学業成績(Standardized Academic Score, SAS)、エッセイ品質(Essay Quality Index, EQI)、エクセルエンゲージメント(Extracurricular Impact Score, EIS)。
トランスフォーマーベースのセマンティック埋め込み、LCMスコアリング、XGBoostレグレッションを活用して、CAPSは人間の判断に沿った透明で説明可能な評価を提供する。
EQI予測R^2は0.80、分類精度は75%以上、マクロF1スコアは0.69、重み付きF1スコアは0.74である。
CAPSは、従来の全体的レビュー(特に不透明さ、不整合性、および申請者が直面する不安)における重要な制限に対処し、より公平でデータインフォームドなインプットの実践への道を開く。
関連論文リスト
- LLMEval-3: A Large-Scale Longitudinal Study on Robust and Fair Evaluation of Large Language Models [51.55869466207234]
静的ベンチマークにおけるLLM(Large Language Models)の既存の評価は、データの汚染やリーダーボードのオーバーフィッティングに弱い。
LLMの動的評価のためのフレームワークであるLLMEval-3を紹介する。
LLEval-3は、220kの卒業生レベルの質問からなるプロプライエタリなバンク上に構築されており、評価実行毎に未確認のテストセットを動的にサンプリングする。
論文 参考訳(メタデータ) (2025-08-07T14:46:30Z) - MetaQAP -- A Meta-Learning Approach for Quality-Aware Pretraining in Image Quality Assessment [2.578159662141357]
画像品質評価(IQA)は、幅広い応用において重要な課題であるが、人間の知覚の主観的性質と実世界の画像歪みの複雑さのため、依然として困難な課題である。
本研究は,品質に配慮した事前学習とメタ学習を活用することで,これらの課題に対処する新しい非参照IQAモデルであるMetaQAPを提案する。
提案したMetaQAPモデルではPearson Linear correlation Coefficient (PLCC) とSpearman Rank Order correlation Coefficient (SROCC) のスコアが0.9885/0.9812,Konで0.9702/0.9658で優れた性能を示した。
論文 参考訳(メタデータ) (2025-06-19T21:03:47Z) - RAG-Zeval: Towards Robust and Interpretable Evaluation on RAG Responses through End-to-End Rule-Guided Reasoning [64.46921169261852]
RAG-Zevalは、ルール誘導推論タスクとして忠実さと正しさの評価を定式化する、新しいエンドツーエンドフレームワークである。
提案手法は、強化学習による評価者を訓練し、コンパクトなモデルにより包括的および音質評価を生成する。
実験では、RAG-Zevalの優れた性能を示し、人間の判断と最も強い相関性を達成した。
論文 参考訳(メタデータ) (2025-05-28T14:55:33Z) - T2I-Eval-R1: Reinforcement Learning-Driven Reasoning for Interpretable Text-to-Image Evaluation [60.620408007636016]
T2I-Eval-R1は,大まかな品質スコアのみを用いて,オープンソースのMLLMを訓練する新しい強化学習フレームワークである。
提案手法では,グループ相対政策最適化を命令調整プロセスに統合し,スカラースコアと解釈可能な推論チェーンの両方を生成する。
論文 参考訳(メタデータ) (2025-05-23T13:44:59Z) - HypoEval: Hypothesis-Guided Evaluation for Natural Language Generation [25.193026443079987]
hypoEvalは、大規模言語モデル(LLM)のための仮説誘導評価フレームワークである
人間の評価は30点に過ぎず,HypoEvalはヒトのランク(スピアマンの相関)とヒトのスコア(ピアソンの相関)の両方に対応して最先端のパフォーマンスを達成する。
我々は、HypoEvalの堅牢性を評価するための系統的研究を行い、信頼性と解釈可能な自動評価フレームワークとしての有効性を強調した。
論文 参考訳(メタデータ) (2025-04-09T18:00:01Z) - Fairness Evaluation with Item Response Theory [10.871079276188649]
本稿では機械学習(ML)モデルにおける公平性を評価するための新しいFair-IRTフレームワークを提案する。
項目特性曲線(ICC)の詳細な説明は、特定の個人に対して提供される。
公平性評価ツールとしてのこのフレームワークの有効性を実証する実験を行った。
論文 参考訳(メタデータ) (2024-10-20T22:25:20Z) - Learning to Love Edge Cases in Formative Math Assessment: Using the AMMORE Dataset and Chain-of-Thought Prompting to Improve Grading Accuracy [0.0]
本稿では,Rori による 53,000 個の質問応答対の新たなデータセットである AMMORE を紹介する。
2つの実験により,大規模言語モデル(LLM)を用いて,難解な学生の回答を段階的に評価する。
論文 参考訳(メタデータ) (2024-09-26T14:51:40Z) - Quantifying and Optimizing Global Faithfulness in Persona-driven Role-playing [37.92922713921964]
ペルソナ駆動型ロールプレイング(PRP)は、すべてのペルソナステートメントに忠実に固執することで、ユーザクエリに応答可能なAI文字を構築することを目的としている。
本稿では,PRP忠実度を細粒度で説明可能な基準として定量化するための先駆的な探索について述べる。
論文 参考訳(メタデータ) (2024-05-13T13:21:35Z) - Query Performance Prediction using Relevance Judgments Generated by Large Language Models [53.97064615557883]
自動生成関連判定(QPP-GenRE)を用いた新しいクエリ性能予測(QPP)フレームワークを提案する。
QPP-GenREは、QPPを独立したサブタスクに分解し、ランクリスト内の各項目の関連性を所定のクエリに予測する。
我々は,オープンソースの大規模言語モデル (LLM) を用いて,科学的妥当性を確保することにより,項目の関連性を予測する。
論文 参考訳(メタデータ) (2024-04-01T09:33:05Z) - Evaluating and Improving Factuality in Multimodal Abstractive
Summarization [91.46015013816083]
そこで我々は,CLIPBERTScoreを提案する。
ゼロショットにおけるこの2つの指標の単純な組み合わせは、文書要約のための既存の事実度指標よりも高い相関性が得られることを示す。
本分析は,CLIPBERTScoreとそのコンポーネントの信頼性と高い相関性を示す。
論文 参考訳(メタデータ) (2022-11-04T16:50:40Z) - Uncertainty-Driven Action Quality Assessment [11.958132175629368]
本稿では,複数の判定スコアの多様性を捉えるために,不確実性駆動型AQA (UD-AQA) という新しい確率モデルを提案する。
我々は,AQA回帰損失の再重み付けに使用される各予測の不確かさを推定する。
提案手法は,オリンピックイベントMTL-AQAとFineDivingの3つのベンチマークと,手術スキルJIGSAWSデータセットの3つのベンチマークで比較結果を得た。
論文 参考訳(メタデータ) (2022-07-29T07:21:15Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。