論文の概要: Mitigating Gender Bias in Machine Learning Data Sets
- arxiv url: http://arxiv.org/abs/2005.06898v2
- Date: Mon, 18 May 2020 08:04:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 04:21:28.718732
- Title: Mitigating Gender Bias in Machine Learning Data Sets
- Title(参考訳): 機械学習データセットにおけるジェンダーバイアスの緩和
- Authors: Susan Leavy, Gerardine Meaney, Karen Wade, Derek Greene
- Abstract要約: ジェンダーバイアスは雇用広告や採用ツールの文脈で特定されている。
本稿では,機械学習のためのトレーニングデータにおける性別バイアスの同定のための枠組みを提案する。
- 参考スコア(独自算出の注目度): 5.075506385456811
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence has the capacity to amplify and perpetuate societal
biases and presents profound ethical implications for society. Gender bias has
been identified in the context of employment advertising and recruitment tools,
due to their reliance on underlying language processing and recommendation
algorithms. Attempts to address such issues have involved testing learned
associations, integrating concepts of fairness to machine learning and
performing more rigorous analysis of training data. Mitigating bias when
algorithms are trained on textual data is particularly challenging given the
complex way gender ideology is embedded in language. This paper proposes a
framework for the identification of gender bias in training data for machine
learning.The work draws upon gender theory and sociolinguistics to
systematically indicate levels of bias in textual training data and associated
neural word embedding models, thus highlighting pathways for both removing bias
from training data and critically assessing its impact.
- Abstract(参考訳): 人工知能は社会バイアスを増幅し持続する能力を持ち、社会に重大な倫理的影響をもたらす。
ジェンダーバイアスは、基礎となる言語処理とレコメンデーションアルゴリズムに依存しているため、雇用広告や採用ツールの文脈で特定されている。
このような問題に対処しようとする試みは、学習した協会をテストすること、公正の概念を機械学習に統合すること、トレーニングデータのより厳密な分析を実行することなどである。
言語にジェンダーイデオロギーを組み込む複雑な方法を考えると、アルゴリズムがテキストデータでトレーニングされる際のバイアスの軽減は特に難しい。
本稿では,機械学習のためのトレーニングデータにおけるジェンダーバイアスの同定のための枠組みを提案する。この研究は,テキスト学習データと関連するニューラルワード埋め込みモデルにおけるバイアスのレベルを体系的に示すためのジェンダー理論と社会言語学に基づいており,トレーニングデータからバイアスを取り除き,その影響を批判的に評価するための経路を強調する。
関連論文リスト
- The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Assessing Gender Bias in Predictive Algorithms using eXplainable AI [1.9798034349981162]
予測アルゴリズムは、医学や教育など様々な分野で利益をもたらす強力な可能性を秘めている。
彼らは人間に存在する偏見と偏見を継承することができる。
結果は、不公平な結果を生み出すエラーを体系的に繰り返すことができます。
論文 参考訳(メタデータ) (2022-03-19T07:47:45Z) - Gender Bias in Text: Labeled Datasets and Lexicons [0.30458514384586394]
性別バイアスの自動検出には、性別バイアスデータセットと語彙の欠如がある。
関連文の収集,注釈付け,拡張によりラベル付きデータセットと網羅的辞書を提供する。
リリースされたデータセットとレキシコンは、Generic He、Generic She、Explicit Marking of Sex、Gendered Neologismsなど、複数のバイアスサブタイプにまたがっている。
論文 参考訳(メタデータ) (2022-01-21T12:44:51Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Impact of Gender Debiased Word Embeddings in Language Modeling [0.0]
性別、人種、社会的バイアスは、自然言語処理の適用における不公平の明白な例として検出されている。
近年の研究では、トレーニングで使用される人為的なデータが偏見を生じさせる要因であることが示されている。
現在のアルゴリズムは、データからのバイアスを増幅することも証明されている。
論文 参考訳(メタデータ) (2021-05-03T14:45:10Z) - Fair Representation Learning for Heterogeneous Information Networks [35.80367469624887]
公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2021-04-18T08:28:18Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。