論文の概要: Dropping Standardized Testing for Admissions Trades Off Information and
Access
- arxiv url: http://arxiv.org/abs/2010.04396v4
- Date: Thu, 2 Sep 2021 23:34:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-29 13:39:16.481184
- Title: Dropping Standardized Testing for Admissions Trades Off Information and
Access
- Title(参考訳): 入場資格の標準試験の廃止、情報とアクセスのトレードオフ
- Authors: Nikhil Garg, Hannah Li, Faidra Monachou
- Abstract要約: フェアネスを考慮したキャパシティ制約選択問題における情報とアクセスの役割について検討する。
当社の枠組みは,大学入試における標準化試験の廃止に関する最近の政策討論への自然な応用を見出したものである。
- 参考スコア(独自算出の注目度): 2.3112098378462296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the role of information and access in capacity-constrained selection
problems with fairness concerns. We develop a theoretical framework with
testable implications that formalizes the trade-off between the (potentially
positive) informational role of a feature and its (negative) exclusionary
nature when members of different social groups have unequal access to this
feature. Our framework finds a natural application to recent policy debates on
dropping standardized testing in college admissions.
Our primary takeaway is that the decision to drop a feature (such as test
scores) cannot be made without the joint context of the information provided by
other features and how the requirement affects the applicant pool composition.
Dropping a feature may exacerbate disparities by decreasing the amount of
information available for each applicant, especially those from non-traditional
backgrounds. However, in the presence of access barriers to a feature, the
interaction between the informational environment and the effect of access
barriers on the applicant pool size becomes highly complex. In this case, we
provide a threshold characterization regarding when removing a feature improves
both academic merit and diversity. Finally, using application and transcript
data from the University of Texas at Austin, we illustrate that there exist
practical settings where dropping standardized testing improves or worsens all
metrics.
- Abstract(参考訳): フェアネスを考慮した容量制約選択問題における情報とアクセスの役割について検討する。
我々は,ある特徴の(潜在的に肯定的な)情報的役割と,その(否定的な)排他的性質との間のトレードオフを形式化する,検証可能な意味を持つ理論的枠組みを開発する。
この枠組みは、大学入学試験における標準化テストの廃止に関する最近の政策論争に自然に適用できる。
私たちのおもな結論は、機能(テストスコアなど)をドロップする決定は、他の機能が提供する情報と、その要求が応募者プールの構成にどのように影響するかの、共同コンテキストなしではできないということです。
特徴の削除は、各応募者、特に非伝統的背景からの情報量を減らすことで、格差を悪化させる可能性がある。
しかし,機能に対するアクセス障壁の存在下では,情報環境とアクセス障壁の相互作用がアプリケーションプールサイズに与える影響は非常に複雑になる。
この場合、特徴の除去が学術的メリットと多様性の両方を改善する際の閾値特性を提供する。
最後に、テキサス大学オースティン校のアプリケーションと書き起こしデータを使用して、標準化されたテストのドロップがすべてのメトリクスを改善し、悪化させる実践的な設定が存在することを示します。
関連論文リスト
- Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Fairness in Contextual Resource Allocation Systems: Metrics and
Incompatibility Results [7.705334602362225]
本研究は、住宅を提供するホームレスサービスなど、基本的なニーズを満たすため、不足する資源を割り当てるシステムについて研究する。
これらの制度は、しばしば、体系的な人種、性別、その他の不正によって不当に影響を受けるコミュニティをサポートする。
本稿では,機械学習における公平度指標に触発された文脈的資源配分システムにおける公平性を評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T02:30:58Z) - Fair Sequential Selection Using Supervised Learning Models [11.577534539649374]
我々は、連続して到着した応募者が限られた数の位置/ジョブを申請する選択問題を考える。
一般の公正概念を満足する事前学習モデルであっても、選択の結果は特定の人口集団に偏っている可能性があることを示す。
本稿では、連続選択問題に適した「平等選択(ES)」という新たなフェアネス概念を導入し、ESフェアネス概念を満たすための後処理アプローチを提案する。
論文 参考訳(メタデータ) (2021-10-26T19:45:26Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Stateful Offline Contextual Policy Evaluation and Learning [88.9134799076718]
我々は、シーケンシャルデータから、政治以外の評価と学習について研究する。
動的パーソナライズされた価格設定などの問題の因果構造を形式化する。
本報告では,本クラスにおけるアウト・オブ・サンプル・ポリシーの性能改善について述べる。
論文 参考訳(メタデータ) (2021-10-19T16:15:56Z) - Information Theoretic Measures for Fairness-aware Feature Selection [27.06618125828978]
我々は,特徴の精度と識別的影響に関する情報理論に基づく,公平性を考慮した特徴選択のためのフレームワークを開発する。
具体的には、この機能が正確性や非差別的判断にどのように影響するかを定量化する、各機能に対する公平性ユーティリティスコアを設計することを目的としています。
論文 参考訳(メタデータ) (2021-06-01T20:11:54Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Intersectional Affirmative Action Policies for Top-k Candidates
Selection [3.4961413413444817]
本研究では,トップk候補を応募者のプールから選抜する問題について検討する。
我々は,一部の候補者が歴史的かつ現在の不利を経験している状況を考える。
そこで本研究では,OECD国における学力評価と学士号取得のデータセットを用いて,この問題を解き,解析し,評価する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-29T12:27:18Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。