論文の概要: On the Encoding of Gender in Transformer-based ASR Representations
- arxiv url: http://arxiv.org/abs/2406.09855v1
- Date: Fri, 14 Jun 2024 09:10:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 14:24:30.128465
- Title: On the Encoding of Gender in Transformer-based ASR Representations
- Title(参考訳): トランスフォーマーに基づくASR表現におけるジェンダーの符号化について
- Authors: Aravind Krishnan, Badr M. Abdullah, Dietrich Klakow,
- Abstract要約: 本研究では,2つのASRモデル(Wav2Vec2とHuBERT)の潜在表現における性別のエンコーディングと利用について検討する。
分析の結果、最終層における第1および最終層における性別情報の集中が明らかとなり、これらの層における性別の消去の容易さが説明できる。
- 参考スコア(独自算出の注目度): 18.08250235967961
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While existing literature relies on performance differences to uncover gender biases in ASR models, a deeper analysis is essential to understand how gender is encoded and utilized during transcript generation. This work investigates the encoding and utilization of gender in the latent representations of two transformer-based ASR models, Wav2Vec2 and HuBERT. Using linear erasure, we demonstrate the feasibility of removing gender information from each layer of an ASR model and show that such an intervention has minimal impacts on the ASR performance. Additionally, our analysis reveals a concentration of gender information within the first and last frames in the final layers, explaining the ease of erasing gender in these layers. Our findings suggest the prospect of creating gender-neutral embeddings that can be integrated into ASR frameworks without compromising their efficacy.
- Abstract(参考訳): 既存の文献は、ASRモデルの性別バイアスを明らかにするためにパフォーマンスの違いに依存しているが、より深い分析は、転写生成中に性別がどのようにエンコードされ、どのように利用されるかを理解するのに不可欠である。
本研究では、2つのトランスフォーマーベースのASRモデルであるWav2Vec2とHuBERTの潜在表現における性別の符号化と利用について検討する。
線形消去を用いて、ASRモデルの各層から性別情報を除去する可能性を示し、そのような介入がASRの性能に最小限の影響を及ぼすことを示す。
さらに, 最終層における第1, 最終層内の性別情報の濃度を解析し, 性別情報の消去の容易さを考察した。
以上の結果から,ASRフレームワークに組み込んだジェンダーニュートラルな埋め込みを,有効性を損なうことなく実現する可能性が示唆された。
関連論文リスト
- GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Diminishing Stereotype Bias in Image Generation Model using Reinforcemenlent Learning Feedback [3.406797377411835]
本研究では,RLAIF(Reinforcement Learning from Artificial Intelligence Feedback)を用いた画像生成モデルにおける性別バイアスに対処する。
事前訓練された安定拡散モデルと高精度な性別分類変換器を用いることで、性別不均衡をシフトするRshiftと男女バランスを達成・維持するR Balanceの2つの報酬関数を導入する。
実験では、画像の品質を損なうことなくバイアスを緩和したり、追加のデータや迅速な修正を必要とすることなく、このアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-06-27T17:18:58Z) - Leveraging Synthetic Data for Generalizable and Fair Facial Action Unit Detection [9.404202619102943]
本稿では,合成データとマルチソースドメイン適応(MSDA)を用いて,ラベル付きデータの不足や対象の多様性の問題に対処することを提案する。
具体的には,合成表情再ターゲティングにより多様なデータセットを生成することを提案する。
ジェンダーフェアネスをさらに向上させるために、PM2は実際のデータの特徴と女性と男性の合成画像とを一致させる。
論文 参考訳(メタデータ) (2024-03-15T23:50:18Z) - The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Gender Bias in Transformer Models: A comprehensive survey [1.1011268090482573]
人工知能(AI)におけるジェンダーバイアスは、個人の生活に深く影響する懸念として浮上している。
本稿では,トランスフォーマーモデルにおけるジェンダーバイアスを言語学的観点から調査する。
論文 参考訳(メタデータ) (2023-06-18T11:40:47Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Word Embeddings via Causal Inference: Gender Bias Reducing and Semantic
Information Preserving [3.114945725130788]
本稿では、因果推論の枠組みを利用して、ジェンダーバイアスを効果的に除去する手法を提案する。
総括実験により,提案手法は男女の偏りを解消する作業において,最先端の成果を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-09T19:57:22Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。