論文の概要: Towards Data-Driven Affirmative Action Policies under Uncertainty
- arxiv url: http://arxiv.org/abs/2007.01202v1
- Date: Thu, 2 Jul 2020 15:37:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 14:56:15.560929
- Title: Towards Data-Driven Affirmative Action Policies under Uncertainty
- Title(参考訳): 不確実性下におけるデータ駆動肯定行動政策に向けて
- Authors: Corinna Hertweck, Carlos Castillo, Michael Mathioudakis
- Abstract要約: 我々は、承認された応募者数を過小評価されたグループから増やそうとする肯定的な行動方針を考察する。
このような方針は、申請期間の開始前に発表する必要があるため、各プログラムに適用される学生の得点分布について不確実性がある。
本稿では,過去のデータに基づいてトレーニングされた予測モデルを用いて,そのようなポリシーのパラメータを最適化する可能性について検討する。
- 参考スコア(独自算出の注目度): 3.9293125023197595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study university admissions under a centralized system that
uses grades and standardized test scores to match applicants to university
programs. We consider affirmative action policies that seek to increase the
number of admitted applicants from underrepresented groups. Since such a policy
has to be announced before the start of the application period, there is
uncertainty about the score distribution of the students applying to each
program. This poses a difficult challenge for policy-makers. We explore the
possibility of using a predictive model trained on historical data to help
optimize the parameters of such policies.
- Abstract(参考訳): 本稿では,大学進学者と大学プログラムの合致に等級と標準試験点を用いた中央システム下での大学入試について検討する。
我々は、承認申請者数を過小評価グループから増やそうとする肯定的な行動方針を検討する。
このような方針を申請期間の開始前に発表する必要があるため、各プログラムに応募する学生のスコア分布に不確実性がある。
これは政策立案者にとって難しい課題となる。
我々は,過去のデータに基づいてトレーニングされた予測モデルを用いて,これらのポリシーのパラメータを最適化する可能性を検討する。
関連論文リスト
- Algorithms for College Admissions Decision Support: Impacts of Policy Change and Inherent Variability [18.289154814012996]
先進的な応募者ランキングアルゴリズムからレースデータを除去することで、そのプールの学力を高めることなく、トップランクのプールの多様性を低減できることを示す。
個人に対する政策変更の影響を、政策変更に起因する応募者の仲裁と無作為性に起因する仲裁とを比較して測定する。
論文 参考訳(メタデータ) (2024-06-24T14:59:30Z) - Conformal Off-Policy Evaluation in Markov Decision Processes [53.786439742572995]
強化学習は、データから効率的な制御ポリシーを特定し評価することを目的としている。
この学習タスクのほとんどの方法は、Off-Policy Evaluation (OPE)と呼ばれ、正確さと確実性を保証するものではない。
本稿では,目標方針の真報を含む区間を所定の確信度で出力するコンフォーマル予測に基づく新しいOPE手法を提案する。
論文 参考訳(メタデータ) (2023-04-05T16:45:11Z) - Evaluating a Learned Admission-Prediction Model as a Replacement for
Standardized Tests in College Admissions [21.70450099249114]
大学入学事務所は歴史的に、審査のために大規模な応募者プールを実行可能なサブセットに編成するために標準化されたテストスコアに依存してきた。
サブセット生成における標準化テストの役割を置き換えるための機械学習ベースのアプローチを検討する。
過去の入試データに基づいてトレーニングされた予測モデルはSATモデルよりも優れており、最終入試クラスの人口構成と一致していることがわかった。
論文 参考訳(メタデータ) (2023-02-07T17:14:26Z) - Counterfactual Learning with General Data-generating Policies [3.441021278275805]
我々は、コンテキスト帯域設定における完全なサポートと不足したサポートロギングポリシーのクラスのためのOPE手法を開発した。
サンプルサイズが大きくなるにつれて,本手法の予測値が実測値の真の性能に収束することが証明された。
論文 参考訳(メタデータ) (2022-12-04T21:07:46Z) - Identification of Subgroups With Similar Benefits in Off-Policy Policy
Evaluation [60.71312668265873]
我々は,パーソナライズの必要性と自信ある予測とのバランスをとる方法を開発した。
本手法は不均一な治療効果の正確な予測に有効であることを示す。
論文 参考訳(メタデータ) (2021-11-28T23:19:12Z) - Sayer: Using Implicit Feedback to Optimize System Policies [63.992191765269396]
我々は、暗黙のフィードバックを活用して、新しいシステムポリシーを評価し、訓練する方法論を開発する。
Sayerは、強化学習の2つのアイデアに基づいて、既存のポリシーで収集されたデータを活用する。
Sayer氏は任意のポリシーを正確に評価し、生産ポリシーを上回るような新しいポリシーをトレーニングできることを示します。
論文 参考訳(メタデータ) (2021-10-28T04:16:56Z) - Supervised Off-Policy Ranking [145.3039527243585]
オフポリシー評価(OPE)は、他のポリシーによって生成されたデータを活用して、ターゲットポリシーを評価する。
本稿では,訓練方針と既知の実績を正しくランク付けすることで,政策スコアリングモデルを学習する教師付き非政治ランキングを提案する。
本手法は,上位3つのポリシーのうち,最良と最良の双方のランク相関と性能差の両面から,強力なベースラインOPE法より優れる。
論文 参考訳(メタデータ) (2021-07-03T07:01:23Z) - Offline Policy Selection under Uncertainty [113.57441913299868]
我々は、オフラインポリシーの選択を、一定の経験データセットを与えられた政策予測のセットよりも学習の選好とみなす。
政策価値に対する信念に対する完全な分布へのアクセスは、より幅広い下流評価指標の下でより柔軟な選択アルゴリズムを可能にする。
BayesDICEが任意の下流ポリシー選択メトリックに関してポリシーのランク付けにどのように使用されるかを示します。
論文 参考訳(メタデータ) (2020-12-12T23:09:21Z) - Intersectional Affirmative Action Policies for Top-k Candidates
Selection [3.4961413413444817]
本研究では,トップk候補を応募者のプールから選抜する問題について検討する。
我々は,一部の候補者が歴史的かつ現在の不利を経験している状況を考える。
そこで本研究では,OECD国における学力評価と学士号取得のデータセットを用いて,この問題を解き,解析し,評価する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-29T12:27:18Z) - Distributionally Robust Batch Contextual Bandits [20.667213458836734]
歴史的観測データを用いた政策学習は、広く応用されている重要な問題である。
既存の文献は、学習方針が展開される将来の環境が過去の環境と同じである、という決定的な前提に基づいている。
本稿では、この仮定を引き上げ、不完全な観測データを用いて、分布的に堅牢なポリシーを学習することを目的とする。
論文 参考訳(メタデータ) (2020-06-10T03:11:40Z) - Policy Evaluation Networks [50.53250641051648]
我々は,簡潔な埋め込みにおいて重要なポリシー情報を保持できる,スケーラブルで差別化可能なフィンガープリント機構を導入する。
実験の結果、これらの3つの要素を組み合わせることで、トレーニングデータを生成するものよりも優れたポリシーを作成できることが示された。
論文 参考訳(メタデータ) (2020-02-26T23:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。