論文の概要: Towards classification parity across cohorts
- arxiv url: http://arxiv.org/abs/2005.08033v1
- Date: Sat, 16 May 2020 16:31:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 12:59:21.712418
- Title: Towards classification parity across cohorts
- Title(参考訳): コホート間の分類パリティに向けて
- Authors: Aarsh Patel, Rahul Gupta, Mukund Harakere, Satyapriya Krishna, Aman
Alok, Peng Liu
- Abstract要約: この研究は、明示的かつ暗黙的な感度のある特徴にまたがる分類パリティを達成することを目的としている。
言語モデルを用いて学習した個々の言語の埋め込みをクラスタリングすることで、暗黙のコホートを得る。
我々は,コホート間のモデル性能の範囲を最小化することを目的とした損失関数の修正を導入することにより,分類パリティを向上させる。
- 参考スコア(独自算出の注目度): 16.21248370949611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, there has been a lot of interest in ensuring algorithmic fairness
in machine learning where the central question is how to prevent sensitive
information (e.g. knowledge about the ethnic group of an individual) from
adding "unfair" bias to a learning algorithm (Feldman et al. (2015), Zemel et
al. (2013)). This has led to several debiasing algorithms on word embeddings
(Qian et al. (2019) , Bolukbasi et al. (2016)), coreference resolution (Zhao et
al. (2018a)), semantic role labeling (Zhao et al. (2017)), etc. Most of these
existing work deals with explicit sensitive features such as gender,
occupations or race which doesn't work with data where such features are not
captured due to privacy concerns. In this research work, we aim to achieve
classification parity across explicit as well as implicit sensitive features.
We define explicit cohorts as groups of people based on explicit sensitive
attributes provided in the data (age, gender, race) whereas implicit cohorts
are defined as groups of people with similar language usage. We obtain implicit
cohorts by clustering embeddings of each individual trained on the language
generated by them using a language model. We achieve two primary objectives in
this work : [1.] We experimented and discovered classification performance
differences across cohorts based on implicit and explicit features , [2] We
improved classification parity by introducing modification to the loss function
aimed to minimize the range of model performances across cohorts.
- Abstract(参考訳): 近年、機械学習におけるアルゴリズムの公平性を保証することに多くの関心が寄せられ、センシティブな情報(例えば、個人の民族集団に関する知識)が学習アルゴリズムに「不公平」なバイアスを加えるのを防ぐ方法が中心となっている(feldman et al. (2015), zemel et al. (2013))。
これは、単語埋め込み(qian et al. (2019) 、bolukbasi et al. (2016))、coreference resolution (zhao et al. (2018a))、semantic role labeling (zhao et al. (2017))などに関するいくつかのデバイアスアルゴリズムを生み出した。
これらの既存の作業のほとんどは、プライバシの懸念のためにそのような機能がキャプチャされないデータでは動作しない、性別、職業、人種といった明示的な敏感な機能を扱う。
本研究では,明示的特徴と暗黙的特徴にまたがる分類パリティの実現を目指す。
明示的なコホートを、データ(年齢、性別、人種)で提供される明示的な繊細な属性に基づく人々のグループとして定義する一方で、暗黙的なコホートを同様の言語の使い方を持つ人々のグループとして定義する。
言語モデルを用いて学習した個々の言語の埋め込みをクラスタリングすることで、暗黙のコホートを得る。
1) 暗黙的特徴と明示的特徴に基づくコホート間の分類性能差を実験し, 発見し, [2] コホート全体のモデル性能を最小化することを目的とした損失関数の修正により分類パリティを改善した。
関連論文リスト
- Minimax Group Fairness in Strategic Classification [8.250258160056514]
戦略的分類において、エージェントは、学習者の分類器から肯定的な分類結果を受け取るために、その特徴をコストで操作する。
精度保証に加えて,グループフェアネス保証を有する学習目標について検討する。
我々は、複数のグループからなるエージェントの集団間のフェアネスを意識したスタックルバーグゲームを形式化し、各グループは独自のコスト関数を持つ。
論文 参考訳(メタデータ) (2024-10-03T14:22:55Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Human-Guided Fair Classification for Natural Language Processing [9.652938946631735]
本稿では、教師なしスタイル転送とGPT-3のゼロショット機能を利用して、意味論的に類似した文を生成する方法を示す。
これらのペアの多くは、毒性分類の文脈における公正性に関する人間の直感と一致していることを確認した。
論文 参考訳(メタデータ) (2022-12-20T10:46:40Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Social Norm Bias: Residual Harms of Fairness-Aware Algorithms [21.50551404445654]
社会ノームバイアス (Social Norm Bias, SNoB) は、自動意思決定システムによって示される、微妙だが連続的な差別の一種である。
我々は、アルゴリズムの予測が性規範とどのように関連しているかを測定することでSNoBを定量化する。
後処理の介入は、この種のバイアスを全く軽減しないことを示す。
論文 参考訳(メタデータ) (2021-08-25T05:54:56Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Interpretable Assessment of Fairness During Model Evaluation [1.2183405753834562]
本稿では,階層的クラスタリングアルゴリズムを導入し,各サブ集団におけるユーザ間の不均一性を検出する。
本稿では,LinkedInの実際のデータに対して,アルゴリズムの性能を示す。
論文 参考訳(メタデータ) (2020-10-26T02:31:17Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。