論文の概要: Admission Prediction in Undergraduate Applications: an Interpretable
Deep Learning Approach
- arxiv url: http://arxiv.org/abs/2401.11698v1
- Date: Mon, 22 Jan 2024 05:44:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 15:24:38.958240
- Title: Admission Prediction in Undergraduate Applications: an Interpretable
Deep Learning Approach
- Title(参考訳): 大学生の入学予測 : 解釈可能な深層学習アプローチ
- Authors: Amisha Priyadarshini, Barbara Martinez-Neda, Sergio Gago-Masague
- Abstract要約: 本稿は,受験委員会の学部受験決定を検証することの課題について論じる。
本稿では、フィードフォワードと入力凸ニューラルネットワークというディープラーニングに基づく分類手法を提案する。
私たちのモデルは、従来の機械学習ベースのアプローチで最高のパフォーマンスを保ちながら、3.03%のマージンで高い精度を実現しています。
- 参考スコア(独自算出の注目度): 0.6906005491572401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article addresses the challenge of validating the admission committee's
decisions for undergraduate admissions. In recent years, the traditional review
process has struggled to handle the overwhelmingly large amount of applicants'
data. Moreover, this traditional assessment often leads to human bias, which
might result in discrimination among applicants. Although classical machine
learning-based approaches exist that aim to verify the quantitative assessment
made by the application reviewers, these methods lack scalability and suffer
from performance issues when a large volume of data is in place. In this
context, we propose deep learning-based classifiers, namely Feed-Forward and
Input Convex neural networks, which overcome the challenges faced by the
existing methods. Furthermore, we give additional insights into our model by
incorporating an interpretability module, namely LIME. Our training and test
datasets comprise applicants' data with a wide range of variables and
information. Our models achieve higher accuracy compared to the best-performing
traditional machine learning-based approach by a considerable margin of 3.03\%.
Additionally, we show the sensitivity of different features and their relative
impacts on the overall admission decision using the LIME technique.
- Abstract(参考訳): 本論は、入学委員会の学部入学決定の検証に関する課題について述べる。
近年、従来の審査プロセスは、膨大な数の応募者のデータを扱うのに苦労している。
さらに、この伝統的な評価は、しばしば人間のバイアスにつながるため、応募者間の差別につながる可能性がある。
従来の機械学習ベースのアプローチは、アプリケーションレビュアーによる定量的評価の検証を目的としているが、これらの手法はスケーラビリティに欠け、大量のデータが存在する場合にパフォーマンスの問題に悩まされている。
そこで本研究では,既存の手法が直面する課題を克服する,フィードフォワードと入力凸ニューラルネットワークという,ディープラーニングに基づく分類器を提案する。
さらに、解釈可能性モジュール、すなわちLIMEを組み込むことで、モデルにさらなる洞察を与える。
私たちのトレーニングとテストデータセットは、幅広い変数と情報を持つ応募者のデータで構成されています。
私たちのモデルは、従来の機械学習ベースのアプローチと比較して、かなり精度が3.03\%向上しました。
また,LIME法を用いて,異なる特徴の感度と,その相対的影響が全体の受入判定に与える影響も示した。
関連論文リスト
- The Fairness Stitch: Unveiling the Potential of Model Stitching in
Neural Network De-Biasing [0.043512163406552]
本研究では,深層学習モデルの公平性を高めるために,"The Fairness Stitch"と呼ばれる新しい手法を提案する。
我々はCelebAとUTKFaceの2つのよく知られたデータセットを総合的に評価する。
フェアネスとパフォーマンスのバランスの取れたトレードオフを達成する上で, 顕著な改善がみられた。
論文 参考訳(メタデータ) (2023-11-06T21:14:37Z) - Explainable Attention for Few-shot Learning and Beyond [8.32170125150307]
本稿では,説明可能な難易度発見,特に数発の学習シナリオに適した新しいフレームワークを提案する。
提案手法では、深層強化学習を用いて、生の入力データに直接影響するハードアテンションの概念を実装している。
論文 参考訳(メタデータ) (2023-10-11T18:33:17Z) - Bias and Fairness in Large Language Models: A Survey [76.65471160523444]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - In Search of Insights, Not Magic Bullets: Towards Demystification of the
Model Selection Dilemma in Heterogeneous Treatment Effect Estimation [92.51773744318119]
本稿では,異なるモデル選択基準の長所と短所を実験的に検討する。
選択戦略,候補推定器,比較に用いるデータの間には,複雑な相互作用があることを強調した。
論文 参考訳(メタデータ) (2023-02-06T16:55:37Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - A Survey on Evidential Deep Learning For Single-Pass Uncertainty
Estimation [0.0]
情報深層学習(Evidential Deep Learning): 馴染みのないデータに対して、彼らは“知らないこと”を認め、以前の信念に戻る。
この調査は、Evidential Deep Learningという概念に基づいた、別のモデルのクラスを読者に親しみやすくすることを目的としている。
論文 参考訳(メタデータ) (2021-10-06T20:13:57Z) - Beyond traditional assumptions in fair machine learning [5.029280887073969]
この論文は、連続的な意思決定における公正性に対する従来の機械学習アプローチの基礎となる一般的な仮定を精査する。
観測データの統計的特性に基づいたグループフェアネス基準は, 基本的に限定的であることを示す。
我々は、機密データが実際に容易に利用できるという仮定を克服する。
論文 参考訳(メタデータ) (2021-01-29T09:02:15Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [89.01584399789951]
歴史的専門家の意思決定を豊富な情報源として利用することを検討します。
観察されたラベルだけで学習する制限を緩和するために活用できることを示しています。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Fairness-Aware Online Personalization [16.320648868892526]
個人格付けを含むオンラインパーソナライズ設定における公平性について検討する。
最初に、オンラインパーソナライゼーションが、ユーザが応答に偏っている場合、モデルが不公平に行動することを学ぶことを実証する。
次に、公正な制約の下でパーソナライズされたモデルを学習する問題を定式化し、機械学習におけるバイアスを軽減するための正規化に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-30T07:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。