論文の概要: Augmenting Holistic Review in University Admission using Natural
Language Processing for Essays and Recommendation Letters
- arxiv url: http://arxiv.org/abs/2306.17575v1
- Date: Fri, 30 Jun 2023 11:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 12:33:08.514883
- Title: Augmenting Holistic Review in University Admission using Natural
Language Processing for Essays and Recommendation Letters
- Title(参考訳): 自然言語処理による大学入試における総括的レビューの強化
- Authors: Jinsook Lee, Bradon Thymes, Joyce Zhou, Thorsten Joachims, Rene F.
Kizilcec
- Abstract要約: 機械学習(ML)モデルを用いて,受入決定の予測に保護属性がどのような影響を及ぼすかを評価する。
その結果,MLモデルから保護属性を除外することで,入射防止性能が大幅に低下することが判明した。
- 参考スコア(独自算出の注目度): 17.998083498282003
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: University admission at many highly selective institutions uses a holistic
review process, where all aspects of the application, including protected
attributes (e.g., race, gender), grades, essays, and recommendation letters are
considered, to compose an excellent and diverse class. In this study, we
empirically evaluate how influential protected attributes are for predicting
admission decisions using a machine learning (ML) model, and in how far textual
information (e.g., personal essay, teacher recommendation) may substitute for
the loss of protected attributes in the model. Using data from 14,915
applicants to an undergraduate admission office at a selective U.S. institution
in the 2022-2023 cycle, we find that the exclusion of protected attributes from
the ML model leads to substantially reduced admission-prediction performance.
The inclusion of textual information via both a TF-IDF representation and a
Latent Dirichlet allocation (LDA) model partially restores model performance,
but does not appear to provide a full substitute for admitting a similarly
diverse class. In particular, while the text helps with gender diversity, the
proportion of URM applicants is severely impacted by the exclusion of protected
attributes, and the inclusion of new attributes generated from the textual
information does not recover this performance loss.
- Abstract(参考訳): 高度に選択された多くの機関における大学入学は、保護された属性(人種、性別など)、成績、エッセイ、レコメンデーションレターを含む出願のすべての側面が、優秀で多様なクラスを構成するために、総合的な審査プロセスを用いる。
本研究では,機械学習(ml)モデルを用いた入場決定における保護属性の影響を実証的に評価し,保護属性の喪失に対するテキスト情報(個人的エッセイ,教師の推薦など)の代替方法について検討した。
2022-2023サイクルの米国選択機関の受験生14,915人のデータを用いて,MLモデルから保護属性を除外することで,受験成績が大幅に低下することが判明した。
TF-IDF表現と遅延ディリクレアロケーション(LDA)モデルによるテキスト情報の導入は、部分的にモデル性能を回復させるが、同様の多様なクラスを認めるための完全な代替手段を提供するものではない。
特に、テキストは性別の多様性に寄与するが、URM申請者の比率は保護属性の除外によって著しく影響を受けており、テキスト情報から生成された新しい属性の含めは、このパフォーマンス損失を回復しない。
関連論文リスト
- Machine Unlearning in Large Language Models [0.7864304771129751]
本稿では,大規模言語モデル(LLM)を倫理,プライバシ,安全基準と整合させる手法を提案する。
本研究の目的は,LLMにおける学習情報を選択的に消去・修正することであり,有害な応答や著作権のあるコンテンツを対象としている。
論文 参考訳(メタデータ) (2024-05-24T02:12:51Z) - Vision-language Assisted Attribute Learning [53.60196963381315]
大規模な属性ラベリングは通常不完全で部分的である。
既存の属性学習手法は、欠落したラベルを否定的な扱いをすることが多い。
利用可能な視覚言語知識を活用して、モデル学習の強化に欠落しているラベルを明確に明らかにする。
論文 参考訳(メタデータ) (2023-12-12T06:45:19Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - COFFEE: Counterfactual Fairness for Personalized Text Generation in
Explainable Recommendation [56.520470678876656]
ユーザ記述テキストに固有のバイアスは、言語品質の異なるレベルとユーザの保護された属性を関連付けることができる。
説明生成における測度特異的な対実的公正性を実現するための一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-14T02:29:10Z) - Unlearning Protected User Attributes in Recommendations with Adversarial
Training [10.268369743620159]
協調フィルタリングアルゴリズムは、特定の人口統計やユーザーの保護された情報を含む、基礎となる消費パターンをキャプチャする。
これらの符号化バイアスは、様々な階層のサブグループに提供されるコンテンツのさらなる分離に向けたレコメンデーションシステムの決定に影響を与える可能性がある。
本研究では,RSアルゴリズムの学習的相互作用表現から,ユーザの特定の保護された情報を除去する可能性と課題について検討する。
論文 参考訳(メタデータ) (2022-06-09T13:36:28Z) - Learning Fair Representations via Rate-Distortion Maximization [16.985698188471016]
本稿では,Fairness-Aware Rate Maximization (FaRM) を提案する。このFairness-Aware Rate Maximization (FaRM) は,Fairness-Aware Rate Maximization (FRM) 関数を用いて,同じ保護属性クラスに属するインスタンスの表現を非相関にすることで,人口統計情報を除去する。
FaRMは、複数のデータセット上で最先端のパフォーマンスを実現し、学習された表現は、非線形探索ネットワークによる攻撃に対する保護属性情報のリークを著しく少なくする。
論文 参考訳(メタデータ) (2022-01-31T19:00:52Z) - Few-shot Instruction Prompts for Pretrained Language Models to Detect
Social Biases [55.45617404586874]
我々は、事前訓練された言語モデル(LM)を誘導する数ショットの命令ベース手法を提案する。
大規模なLMは、微調整モデルとよく似た精度で、異なる種類の細粒度バイアスを検出できることを示す。
論文 参考訳(メタデータ) (2021-12-15T04:19:52Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Should College Dropout Prediction Models Include Protected Attributes? [0.4125187280299248]
機械学習モデルを構築し、1学年後に学生のドロップアウトを予測する。
モデル予測の全体的な性能と公平性を、4つの保護属性の有無で比較する。
保護属性を含むと、全体的な予測性能に影響を与えず、予測のアルゴリズム的公正さをわずかに改善することを発見した。
論文 参考訳(メタデータ) (2021-03-28T22:47:30Z) - Dropping Standardized Testing for Admissions Trades Off Information and
Access [2.354619015221828]
フェアネスを考慮したキャパシティ制約選択問題における情報とアクセスの役割について検討する。
我々は,各応募者が複数の特徴を持ち,潜在的に戦略的である理論的統計的識別フレームワークを開発する。
当社の枠組みは,大学入試における標準化試験の廃止に関する最近の政策討論への自然な応用を見出したものである。
論文 参考訳(メタデータ) (2020-10-09T07:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。