論文の概要: Fair Classification via Transformer Neural Networks: Case Study of an
Educational Domain
- arxiv url: http://arxiv.org/abs/2206.01410v1
- Date: Fri, 3 Jun 2022 06:34:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 01:14:10.632584
- Title: Fair Classification via Transformer Neural Networks: Case Study of an
Educational Domain
- Title(参考訳): トランスフォーマーニューラルネットワークによる公正分類:教育領域を事例として
- Authors: Modar Sulaiman, Kallol Roy
- Abstract要約: 本稿では,Law Schoolのニューラルネットワークを用いた変圧器ネットワークにおけるフェアネス制約の予備的検討を行う。
フェアネス指標を用いて評価を行い、フェアネスと精度のトレードオフを確認しました。
- 参考スコア(独自算出の注目度): 0.0913755431537592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Educational technologies nowadays increasingly use data and Machine Learning
(ML) models. This gives the students, instructors, and administrators support
and insights for the optimum policy. However, it is well acknowledged that ML
models are subject to bias, which raises concern about the fairness, bias, and
discrimination of using these automated ML algorithms in education and its
unintended and unforeseen negative consequences. The contribution of bias
during the decision-making comes from datasets used for training ML models and
the model architecture. This paper presents a preliminary investigation of
fairness constraint in transformer neural networks on Law School and
Student-Mathematics datasets. The used transformer models transform these raw
datasets into a richer representation space of natural language processing
(NLP) while solving fairness classification. We have employed fairness metrics
for evaluation and check the trade-off between fairness and accuracy. We have
reported the various metrics of F1, SPD, EOD, and accuracy for different
architectures from the transformer model class.
- Abstract(参考訳): 近年、教育技術はデータと機械学習(ML)モデルの利用が増えている。
これにより、学生、インストラクター、管理者が最適な政策を支援することができる。
しかし、MLモデルが偏見の対象であることはよく知られており、これら自動化MLアルゴリズムを教育に使用する公平性、偏見、差別性や、意図しない、予期せぬ負の結果に懸念が生じる。
意思決定におけるバイアスの寄与は、MLモデルとモデルアーキテクチャのトレーニングに使用されるデータセットから来ています。
本稿では,Law SchoolとStudent-Mathematicsデータセットにおけるトランスフォーマーニューラルネットワークの公正性制約に関する予備的検討を行う。
使用するトランスフォーマーモデルは、フェアネス分類を解きながら、これらの生データセットを自然言語処理(nlp)のよりリッチな表現空間に変換する。
評価のために公正度指標を採用し、公正度と正確性の間のトレードオフをチェックした。
我々は、F1、SPD、EDDの様々な測定値と、トランスフォーマーモデルクラスから異なるアーキテクチャの精度を報告した。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - FairLay-ML: Intuitive Remedies for Unfairness in Data-Driven
Social-Critical Algorithms [13.649336187121095]
この論文は、機械学習(ML)モデル説明ツールが、機械学習ベースの意思決定支援システムにおける不公平さを、レイマンが可視化し、理解し、直感的に改善できるかどうかを探求する。
この論文では、概念実証のGUIであるFairLay-MLを紹介し、最も有望なツールを統合し、MLモデルにおける不公平なロジックの直感的な説明を提供する。
論文 参考訳(メタデータ) (2023-07-11T06:05:06Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Fairness and Accuracy under Domain Generalization [10.661409428935494]
機械学習アルゴリズムが特定の社会グループに偏っているのではないかという懸念が持ち上がっている。
MLモデルを公平にするための多くのアプローチが提案されているが、トレーニングとデプロイメントにおけるデータ分散が同一であるという仮定に依存しているのが一般的である。
本研究では,テスト時のデータのサンプル化が可能な領域一般化の下でのフェアネスと精度の両面について検討する。
論文 参考訳(メタデータ) (2023-01-30T23:10:17Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - Fair Interpretable Representation Learning with Correction Vectors [60.0806628713968]
我々は「補正ベクトル」の学習を中心にした公正表現学習のための新しい枠組みを提案する。
このような方法で制約されたいくつかの公正表現学習モデルが、ランキングや分類性能の損失を示さないことを実験的に示す。
論文 参考訳(メタデータ) (2022-02-07T11:19:23Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - Do the Machine Learning Models on a Crowd Sourced Platform Exhibit Bias?
An Empirical Study on Model Fairness [7.673007415383724]
5つの異なるタスクに使用したKaggleから、40の上位モデルのベンチマークを作成しました。
これらのモデルに7つの緩和手法を適用し、公正性、緩和結果、および性能への影響を分析した。
論文 参考訳(メタデータ) (2020-05-21T23:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。