論文の概要: On the Basis of Sex: A Review of Gender Bias in Machine Learning
Applications
- arxiv url: http://arxiv.org/abs/2104.02532v1
- Date: Tue, 6 Apr 2021 14:11:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 14:17:44.767536
- Title: On the Basis of Sex: A Review of Gender Bias in Machine Learning
Applications
- Title(参考訳): 性の基礎: 機械学習アプリケーションにおけるジェンダーバイアスの概観
- Authors: Tal Feldman and Ashley Peake
- Abstract要約: まず、機械学習のジェンダーバイアスの実践例をいくつか紹介する。
次に、機械学習モデルをより公平にする方法に対処するために、最も広く使われているフェアネスの形式化を詳述する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning models have been deployed across almost every aspect of
society, often in situations that affect the social welfare of many
individuals. Although these models offer streamlined solutions to large
problems, they may contain biases and treat groups or individuals unfairly. To
our knowledge, this review is one of the first to focus specifically on gender
bias in applications of machine learning. We first introduce several examples
of machine learning gender bias in practice. We then detail the most widely
used formalizations of fairness in order to address how to make machine
learning models fairer. Specifically, we discuss the most influential bias
mitigation algorithms as applied to domains in which models have a high
propensity for gender discrimination. We group these algorithms into two
overarching approaches -- removing bias from the data directly and removing
bias from the model through training -- and we present representative examples
of each. As society increasingly relies on artificial intelligence to help in
decision-making, addressing gender biases present in these models is
imperative. To provide readers with the tools to assess the fairness of machine
learning models and mitigate the biases present in them, we discuss multiple
open source packages for fairness in AI.
- Abstract(参考訳): 機械学習モデルは社会のほぼすべての側面に展開され、多くの場合、多くの個人の社会福祉に影響を与える。
これらのモデルは大きな問題に対する合理化された解決策を提供するが、バイアスを含み、グループや個人を不公平に扱うことができる。
我々の知る限り、このレビューは機械学習の応用における性別バイアスに特に焦点を当てた最初の1つである。
まず,機械学習によるジェンダーバイアスの実践例を紹介する。
次に、機械学習モデルをより公平にする方法に対処するために、最も広く使われているフェアネスの形式化を詳述する。
具体的には、モデルが性差別の確率が高い領域に適用された最も影響力のあるバイアス緩和アルゴリズムについて論じる。
これらのアルゴリズムを,データから直接バイアスを取り除き,トレーニングを通じてモデルからバイアスを取り除くという,2つの包括的なアプローチに分類し,その代表例を示す。
社会は意思決定を助けるために人工知能にますます頼っているので、これらのモデルに存在する性別バイアスに対処することは必須である。
機械学習モデルの公平性を評価するツールを提供し、そのバイアスを軽減するために、aiにおける公平性のための複数のオープンソースパッケージについて議論する。
関連論文リスト
- Less can be more: representational vs. stereotypical gender bias in facial expression recognition [3.9698529891342207]
機械学習モデルは、トレーニングデータからバイアスを継承し、差別的または不正確な予測につながる。
本稿では、データセットから機械学習モデルへの人口統計バイアスの伝播について検討する。
ジェンダーの人口構成に焦点をあて、表現とステレオタイプという2種類の偏見を分析した。
論文 参考訳(メタデータ) (2024-06-25T09:26:49Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Language Models Get a Gender Makeover: Mitigating Gender Bias with
Few-Shot Data Interventions [50.67412723291881]
事前訓練された大きな言語モデルに存在する社会的バイアスが重要な問題である。
我々は,事前学習モデルにおける性別バイアスを低減するために,データ介入戦略を強力かつ簡単な手法として提案する。
論文 参考訳(メタデータ) (2023-06-07T16:50:03Z) - Fairness in AI Systems: Mitigating gender bias from language-vision
models [0.913755431537592]
既存のデータセットにおける性別バイアスの影響について検討する。
本稿では,キャプションに基づく言語視覚モデルにおけるその影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T04:33:44Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Whole Page Unbiased Learning to Rank [59.52040055543542]
アンバイアスド・ラーニング・トゥ・ランク(ULTR)アルゴリズムは、バイアスド・クリックデータを用いたアンバイアスド・ランキングモデルを学ぶために提案される。
本稿では,BALというアルゴリズムをランク付けするバイアス非依存学習を提案する。
実世界のデータセットによる実験結果から,BALの有効性が検証された。
論文 参考訳(メタデータ) (2022-10-19T16:53:08Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Are Gender-Neutral Queries Really Gender-Neutral? Mitigating Gender Bias
in Image Search [8.730027941735804]
我々は、画像検索において、独特なジェンダーバイアスを研究する。
検索画像は、ジェンダーニュートラルな自然言語クエリに対して、しばしば性別不均衡である。
我々は2つの新しいデバイアスのアプローチを導入する。
論文 参考訳(メタデータ) (2021-09-12T04:47:33Z) - Bias: Friend or Foe? User Acceptance of Gender Stereotypes in Automated
Career Recommendations [8.44485053836748]
我々は、公正なAIアルゴリズムが現実の世界でその意図した結果を達成するには不十分であることを示した。
キャリアレコメンデーションをケーススタディとして利用し、ジェンダーの偏りを抑える機械学習技術を用いて、公正なAIキャリアレコメンデーターを構築する。
論文 参考訳(メタデータ) (2021-06-13T23:27:45Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - A survey of bias in Machine Learning through the prism of Statistical
Parity for the Adult Data Set [5.277804553312449]
偏見を自動決定にどのように導入できるかを理解することの重要性を示す。
まず、公正学習問題、特に二項分類設定における数学的枠組みについて述べる。
そこで,本研究では,現実およびよく知られた成人所得データセットの標準差分効果指標を用いて,偏見の有無を定量化することを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。