論文の概要: Adaptive Merit Framework: Merit-Anchored Fairness via SES Correction
- arxiv url: http://arxiv.org/abs/2512.13698v2
- Date: Wed, 17 Dec 2025 06:12:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-21 14:22:08.750592
- Title: Adaptive Merit Framework: Merit-Anchored Fairness via SES Correction
- Title(参考訳): Adaptive Merit Framework:SES補正によるMerit-Anchored Fairness
- Authors: Jung-Ah Lee,
- Abstract要約: 本稿では,アダプティブ・メリット・フレームワーク(AMF, Adaptive Merit Framework)を紹介する。
AMFは,(1)条件付きアクセントが通常のアクセントと同じしきい値を超えなければならないメリットアンコールアーキテクチャ,(2)最終レギュラーアクセントの生スコアに固定されたダイナミックしきい値,(3)管理データによる直接連続SES測定の3つのコンポーネントを統合する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: College admissions systems worldwide continue to face a structural tension between meritocracy and equity. Conventional fairness interventions--affirmative action, categorical quotas, and proxy-based targeting--often rely on coarse indicators (e.g., race or region), operate within fixed quotas that induce zero-sum trade-offs, and lack transparent decision rules. This paper introduces the Adaptive Merit Framework (AMF), a policy-engineered mechanism that recognizes latent potential while preserving merit-based thresholds. AMF integrates three components: (1) a merit-anchored architecture in which conditional admits must exceed the same threshold as regular admits, (2) a dynamic threshold anchored to the raw score of the last regular admit, and (3) direct, continuous SES measurement verified through administrative data. Empirical validation using the full PISA 2022 Korea dataset (N=6,377) shows that AMF identifies 4, 6, and 9 additional admits under alpha = 5, 10, and 15 respectively (0.06-0.14% of cohort). Population-weighted estimates using OECD sampling weights suggest that the real-world scale of conditional admits is modestly larger than the raw sample counts, yielding approximately 491, 603, and 760 additional admits under alpha = 5, 10, and 15. All conditional admits exceed the merit threshold by 0.16 to 6.14 points, indicating that AMF recognizes suppressed performance rather than relaxing standards. Beyond SES-based corrections, AMF provides a design template for unified admissions architectures that replace fragmented equity tracks and support multi-dimensional evaluation frameworks.
- Abstract(参考訳): カレッジの入学制度は世界中で、利益主義と株式の間の構造的な緊張に直面し続けている。
従来の公正な介入 - 肯定的な行動、分類的クォータ、プロキシに基づくターゲティング - は、粗い指標(例えば、人種や地域)に依存し、ゼロサムトレードオフを引き起こす固定されたクォータ内で運用され、透明性のある決定ルールが欠如している。
本稿では,アダプティブ・メリット・フレームワーク(AMF, Adaptive Merit Framework)を紹介する。
AMFは,(1)条件付きアクセントが通常のアクセントと同じしきい値を超えなければならないメリットアンコールアーキテクチャ,(2)最終レギュラーアクセントの生スコアに固定されたダイナミックしきい値,(3)管理データによる直接連続SES測定の3つのコンポーネントを統合する。
完全なPISA 2022 Koreaデータセット(N=6,377)を用いた実証検証では、AMFはアルファ = 5, 10, 15(コホートの0.06~0.14%)で4, 6, 9個の追加の承認を識別している。
OECDサンプリング量を用いた個体群重み推定では、実世界の条件付きアクセントの規模はサンプル数よりもわずかに大きく、α = 5, 10, 15 で約 491, 603, 760 個のアクセントが得られた。
すべての条件付き許容値は0.16から6.14ポイントを超えており、AMFは標準を緩めるのではなく、抑圧された性能を認識することを示している。
SESベースの修正以外にも、AMFは断片化されたエクイティトラックを置き換え、多次元評価フレームワークをサポートする統合インプットアーキテクチャのための設計テンプレートを提供する。
関連論文リスト
- Parrot: Persuasion and Agreement Robustness Rating of Output Truth -- A Sycophancy Robustness Benchmark for LLMs [0.0]
PARROT (Persuasion and Agreement Robustness Rating of Output Truth) は、ユーザの社会的圧力下での精度の劣化を測定するための堅牢性にフォーカスしたフレームワークである。
我々は13のドメインにまたがる1,302のMMLUスタイルの多重選択質問とドメイン固有の権威テンプレートを用いて22のモデルを評価する。
論文 参考訳(メタデータ) (2025-11-21T13:01:28Z) - LLM Output Drift: Cross-Provider Validation & Mitigation for Financial Workflows [0.5798758080057375]
非決定論的出力(アウトプットドリフト)は監査性と信頼を損なう。
規制された金融業務に関する5つのモデルアーキテクチャ間のドリフトを定量化する。
この発見は、より大きなモデルがプロダクションデプロイメントに普遍的に優れているという従来の仮定に挑戦する。
論文 参考訳(メタデータ) (2025-11-10T19:54:00Z) - Formal Models and Convergence Analysis for Context-Aware Security Verification [0.0]
本稿では,ML強化適応システムに対する証明可能な保証を確立する,文脈認識型セキュリティ検証のための公式なフレームワークを提案する。
1)適応的検証が成功した場合のサンプル複雑性境界,(2)コンテキストリッチネスと検出能力に関する情報理論制限,(3)MLベースのペイロードジェネレータの収束保証。
論文 参考訳(メタデータ) (2025-10-14T12:21:36Z) - HALF: Harm-Aware LLM Fairness Evaluation Aligned with Deployment [52.374772443536045]
HALF(Harm-Aware LLM Fairness)は、現実的なアプリケーションにおけるモデルバイアスを評価し、有害度によって結果を評価するフレームワークである。
HALFは、以前のベンチマークの成功とデプロイメントの準備の整合性の間に明らかなギャップがあることを示します。
論文 参考訳(メタデータ) (2025-10-14T07:13:26Z) - Continual Action Quality Assessment via Adaptive Manifold-Aligned Graph Regularization [53.82400605816587]
アクション品質アセスメント(AQA)は、ビデオにおける人間の行動を定量化し、スポーツスコアリング、リハビリテーション、スキル評価の応用を支援する。
大きな課題は、現実世界のシナリオにおける品質分布の非定常的な性質にある。
本稿では,進化する分布を扱うための連続学習機能を備えた連続AQA(Continuous AQA)を紹介する。
論文 参考訳(メタデータ) (2025-10-08T10:09:47Z) - Eigen-1: Adaptive Multi-Agent Refinement with Monitor-Based RAG for Scientific Reasoning [53.45095336430027]
暗黙的な検索と構造化された協調を組み合わせた統合フレームワークを開発する。
Humanity's Last Exam (HLE) Bio/Chem Goldでは,48.3%の精度を実現している。
SuperGPQAとTRQAの結果はドメイン間の堅牢性を確認した。
論文 参考訳(メタデータ) (2025-09-25T14:05:55Z) - TrustJudge: Inconsistencies of LLM-as-a-Judge and How to Alleviate Them [58.04324690859212]
自動評価器(LLM-as-a-judge)としての大規模言語モデル(LLM)は、現在の評価フレームワークにおいて重大な矛盾を明らかにしている。
スコア比較不整合とペアワイズ・トランジティビティ不整合という2つの基本的不整合を同定する。
我々は2つの重要なイノベーションを通じてこれらの制限に対処する確率的フレームワークであるTrustJudgeを提案する。
論文 参考訳(メタデータ) (2025-09-25T13:04:29Z) - GANDiff FR: Hybrid GAN Diffusion Synthesis for Causal Bias Attribution in Face Recognition [0.0]
GANDiff FRは、人口動態や環境要因を正確に制御し、再現可能な厳密さで偏見を計測し、説明し、低減する最初の合成フレームワークである。
我々は5つのコホートにまたがる1万の人種的バランスのとれた顔を、自動検出と人的レビューによって合成する。
一致する操作ポイントの下でArcFace、CosFace、AdaFaceをベンチマークすると、AdaFaceはグループ間のTPR格差を60%削減する。
GANDiff FR は、純粋な GAN と比較して約20%の計算オーバーヘッドがあるにもかかわらず、3倍の属性条件付き変種が得られる。
論文 参考訳(メタデータ) (2025-08-15T09:05:57Z) - A Confidence-Diversity Framework for Calibrating AI Judgement in Accessible Qualitative Coding Tasks [0.0]
信頼性の多様性の校正は、アクセス可能なコーディングタスクの品質評価フレームワークである。
8つの最先端のLCMから5,680のコーディング決定を分析すると、自信はモデル間の合意を密接に追跡する。
論文 参考訳(メタデータ) (2025-08-04T03:47:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。