論文の概要: Admission Prediction in Undergraduate Applications: an Interpretable
Deep Learning Approach
- arxiv url: http://arxiv.org/abs/2401.11698v1
- Date: Mon, 22 Jan 2024 05:44:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 15:24:38.958240
- Title: Admission Prediction in Undergraduate Applications: an Interpretable
Deep Learning Approach
- Title(参考訳): 大学生の入学予測 : 解釈可能な深層学習アプローチ
- Authors: Amisha Priyadarshini, Barbara Martinez-Neda, Sergio Gago-Masague
- Abstract要約: 本稿は,受験委員会の学部受験決定を検証することの課題について論じる。
本稿では、フィードフォワードと入力凸ニューラルネットワークというディープラーニングに基づく分類手法を提案する。
私たちのモデルは、従来の機械学習ベースのアプローチで最高のパフォーマンスを保ちながら、3.03%のマージンで高い精度を実現しています。
- 参考スコア(独自算出の注目度): 0.6906005491572401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article addresses the challenge of validating the admission committee's
decisions for undergraduate admissions. In recent years, the traditional review
process has struggled to handle the overwhelmingly large amount of applicants'
data. Moreover, this traditional assessment often leads to human bias, which
might result in discrimination among applicants. Although classical machine
learning-based approaches exist that aim to verify the quantitative assessment
made by the application reviewers, these methods lack scalability and suffer
from performance issues when a large volume of data is in place. In this
context, we propose deep learning-based classifiers, namely Feed-Forward and
Input Convex neural networks, which overcome the challenges faced by the
existing methods. Furthermore, we give additional insights into our model by
incorporating an interpretability module, namely LIME. Our training and test
datasets comprise applicants' data with a wide range of variables and
information. Our models achieve higher accuracy compared to the best-performing
traditional machine learning-based approach by a considerable margin of 3.03\%.
Additionally, we show the sensitivity of different features and their relative
impacts on the overall admission decision using the LIME technique.
- Abstract(参考訳): 本論は、入学委員会の学部入学決定の検証に関する課題について述べる。
近年、従来の審査プロセスは、膨大な数の応募者のデータを扱うのに苦労している。
さらに、この伝統的な評価は、しばしば人間のバイアスにつながるため、応募者間の差別につながる可能性がある。
従来の機械学習ベースのアプローチは、アプリケーションレビュアーによる定量的評価の検証を目的としているが、これらの手法はスケーラビリティに欠け、大量のデータが存在する場合にパフォーマンスの問題に悩まされている。
そこで本研究では,既存の手法が直面する課題を克服する,フィードフォワードと入力凸ニューラルネットワークという,ディープラーニングに基づく分類器を提案する。
さらに、解釈可能性モジュール、すなわちLIMEを組み込むことで、モデルにさらなる洞察を与える。
私たちのトレーニングとテストデータセットは、幅広い変数と情報を持つ応募者のデータで構成されています。
私たちのモデルは、従来の機械学習ベースのアプローチと比較して、かなり精度が3.03\%向上しました。
また,LIME法を用いて,異なる特徴の感度と,その相対的影響が全体の受入判定に与える影響も示した。
関連論文リスト
- Learning Confidence Bounds for Classification with Imbalanced Data [42.690254618937196]
本稿では,学習理論と集中不等式を利用して従来のソリューションの欠点を克服する新しい枠組みを提案する。
本手法は, クラスごとに異なる不均衡度に効果的に適応できるため, より堅牢で信頼性の高い分類結果が得られる。
論文 参考訳(メタデータ) (2024-07-16T16:02:27Z) - A Survey of Deep Long-Tail Classification Advancements [1.6233132273470656]
実世界の多くのデータ分布は、ほとんど均一ではない。代わりに、様々な種類の歪んだ、長い尾の分布がよく見られる。
これは機械学習にとって興味深い問題であり、ほとんどのアルゴリズムが均一に分散されたデータを想定したり、うまく機能する。
この問題は、大量のトレーニングデータを必要とする現在の最先端のディープラーニングモデルによってさらに悪化している。
論文 参考訳(メタデータ) (2024-04-24T01:59:02Z) - Machine Unlearning for Traditional Models and Large Language Models: A Short Survey [11.539080008361662]
機械学習は、データを削除し、ユーザーの要求に応じてモデルへの影響を減らすことを目的としている。
本稿では,従来のモデルとLarge Language Models(LLMs)の両方の非学習を分類し,検討する。
論文 参考訳(メタデータ) (2024-04-01T16:08:18Z) - Explainable Attention for Few-shot Learning and Beyond [8.32170125150307]
本稿では,説明可能な難易度発見,特に数発の学習シナリオに適した新しいフレームワークを提案する。
提案手法では、深層強化学習を用いて、生の入力データに直接影響するハードアテンションの概念を実装している。
論文 参考訳(メタデータ) (2023-10-11T18:33:17Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - In Search of Insights, Not Magic Bullets: Towards Demystification of the
Model Selection Dilemma in Heterogeneous Treatment Effect Estimation [92.51773744318119]
本稿では,異なるモデル選択基準の長所と短所を実験的に検討する。
選択戦略,候補推定器,比較に用いるデータの間には,複雑な相互作用があることを強調した。
論文 参考訳(メタデータ) (2023-02-06T16:55:37Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Beyond traditional assumptions in fair machine learning [5.029280887073969]
この論文は、連続的な意思決定における公正性に対する従来の機械学習アプローチの基礎となる一般的な仮定を精査する。
観測データの統計的特性に基づいたグループフェアネス基準は, 基本的に限定的であることを示す。
我々は、機密データが実際に容易に利用できるという仮定を克服する。
論文 参考訳(メタデータ) (2021-01-29T09:02:15Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。