論文の概要: Gender Bias in Transformer Models: A comprehensive survey
- arxiv url: http://arxiv.org/abs/2306.10530v1
- Date: Sun, 18 Jun 2023 11:40:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 20:03:06.314550
- Title: Gender Bias in Transformer Models: A comprehensive survey
- Title(参考訳): トランスフォーマーモデルにおけるジェンダーバイアス:包括的調査
- Authors: Praneeth Nemani, Yericherla Deepak Joel, Palla Vijay, Farhana Ferdousi
Liza
- Abstract要約: 人工知能(AI)におけるジェンダーバイアスは、個人の生活に深く影響する懸念として浮上している。
本稿では,トランスフォーマーモデルにおけるジェンダーバイアスを言語学的観点から調査する。
- 参考スコア(独自算出の注目度): 1.1011268090482573
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Gender bias in artificial intelligence (AI) has emerged as a pressing concern
with profound implications for individuals' lives. This paper presents a
comprehensive survey that explores gender bias in Transformer models from a
linguistic perspective. While the existence of gender bias in language models
has been acknowledged in previous studies, there remains a lack of consensus on
how to effectively measure and evaluate this bias. Our survey critically
examines the existing literature on gender bias in Transformers, shedding light
on the diverse methodologies and metrics employed to assess bias. Several
limitations in current approaches to measuring gender bias in Transformers are
identified, encompassing the utilization of incomplete or flawed metrics,
inadequate dataset sizes, and a dearth of standardization in evaluation
methods. Furthermore, our survey delves into the potential ramifications of
gender bias in Transformers for downstream applications, including dialogue
systems and machine translation. We underscore the importance of fostering
equity and fairness in these systems by emphasizing the need for heightened
awareness and accountability in developing and deploying language technologies.
This paper serves as a comprehensive overview of gender bias in Transformer
models, providing novel insights and offering valuable directions for future
research in this critical domain.
- Abstract(参考訳): 人工知能(AI)におけるジェンダーバイアスは、個人の生活に深く影響する懸念として浮上している。
本稿では,トランスフォーマーモデルにおけるジェンダーバイアスを言語学的観点から調査する。
言語モデルにおけるジェンダーバイアスの存在は以前の研究で認識されているが、このバイアスを効果的に測定し評価する方法に関するコンセンサスが不足している。
本研究はトランスフォーマーにおけるジェンダーバイアスに関する既存の文献を批判的に検討し,バイアス評価に使用される多様な方法論と指標について考察した。
現在のトランスフォーマにおける性別バイアス測定のアプローチには、不完全あるいは欠陥のあるメトリクスの利用、不適切なデータセットサイズ、評価方法の標準化の欠如など、いくつかの制限がある。
さらに,対話システムや機械翻訳など,下流アプリケーション用トランスフォーマーにおけるジェンダーバイアスの潜在的影響について検討した。
我々は、言語技術の開発と展開における認識の高まりと説明責任の必要性を強調し、これらのシステムにおける公平性と公平性を育むことの重要性を強調している。
本稿では、トランスフォーマーモデルにおけるジェンダーバイアスの包括的概要として、新しい洞察を提供し、この重要な領域における将来の研究に有用な方向性を提供する。
関連論文リスト
- GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Gender Bias in Machine Translation and The Era of Large Language Models [0.8702432681310399]
この章では、性バイアスの持続化における機械翻訳の役割について検討し、言語横断的な設定と統計的依存関係によって生じる課題を強調している。
従来のニューラルマシン翻訳手法と、機械翻訳システムとして使用される生成事前学習トランスフォーマモデルの両方において、ジェンダーバイアスに関連する既存の作業の概要を概観する。
論文 参考訳(メタデータ) (2024-01-18T14:34:49Z) - DiFair: A Benchmark for Disentangled Assessment of Gender Knowledge and
Bias [13.928591341824248]
事前訓練された言語モデルでよく見られる性別バイアスを軽減するために、デバイアス技術が提案されている。
これらはしばしば、予測においてモデルが性中立である範囲をチェックするデータセットで評価される。
この評価プロトコルは、バイアス緩和が有意義なジェンダー知識に悪影響を及ぼす可能性を見落としている。
論文 参考訳(メタデータ) (2023-10-22T15:27:16Z) - Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Social Biases in Automatic Evaluation Metrics for NLG [53.76118154594404]
本稿では,単語埋め込みアソシエーションテスト(WEAT)と文埋め込みアソシエーションテスト(SEAT)に基づく評価手法を提案する。
我々は、画像キャプションやテキスト要約タスクにおける性別バイアスの影響を調査するために、性別対応メタ評価データセットを構築した。
論文 参考訳(メタデータ) (2022-10-17T08:55:26Z) - The Birth of Bias: A case study on the evolution of gender bias in an
English language model [1.6344851071810076]
私たちは、英語のウィキペディアコーパスでトレーニングされたLSTMアーキテクチャを使って、比較的小さな言語モデルを使用します。
性別の表現は動的であり、訓練中に異なる位相を識別する。
モデルの入力埋め込みにおいて,ジェンダー情報が局所的に表現されることが示される。
論文 参考訳(メタデータ) (2022-07-21T00:59:04Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Evaluating Gender Bias in Natural Language Inference [5.034017602990175]
推論による自然言語理解における性別バイアスの評価手法を提案する。
チャレンジタスクを使用して、職業を用いたジェンダーステレオタイプの存在に関する最先端のNLIモデルを調査します。
その結果,mnliとsnliデータセットでトレーニングされた3モデルでは,性別による予測誤差が有意に高いことが示唆された。
論文 参考訳(メタデータ) (2021-05-12T09:41:51Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。