論文の概要: From Perceived Effectiveness to Measured Impact: Identity-Aware Evaluation of Automated Counter-Stereotypes
- arxiv url: http://arxiv.org/abs/2510.23523v1
- Date: Mon, 27 Oct 2025 17:02:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.628762
- Title: From Perceived Effectiveness to Measured Impact: Identity-Aware Evaluation of Automated Counter-Stereotypes
- Title(参考訳): 効果知覚から影響測定へ:自己認識によるカウンターステレオタイプの評価
- Authors: Svetlana Kiritchenko, Anna Kerkhof, Isar Nejadgholi, Kathleen C. Fraser,
- Abstract要約: ソーシャルメディア上での性別バイアスに対する反ステレオタイプの自動生成の効果について検討した。
従来研究で最も有効な候補として認識されてきた2つの対テロタイプ戦略(反事実と普遍性の拡大)を評価した。
以上の結果から,実効性は認識された有効性と一致せず,前者は人口集団間で曖昧であり,時として相違する現象であることが明らかとなった。
- 参考スコア(独自算出の注目度): 16.83414091095414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the effect of automatically generated counter-stereotypes on gender bias held by users of various demographics on social media. Building on recent NLP advancements and social psychology literature, we evaluate two counter-stereotype strategies -- counter-facts and broadening universals (i.e., stating that anyone can have a trait regardless of group membership) -- which have been identified as the most potentially effective in previous studies. We assess the real-world impact of these strategies on mitigating gender bias across user demographics (gender and age), through the Implicit Association Test and the self-reported measures of explicit bias and perceived utility. Our findings reveal that actual effectiveness does not align with perceived effectiveness, and the former is a nuanced and sometimes divergent phenomenon across demographic groups. While overall bias reduction was limited, certain groups (e.g., older, male participants) exhibited measurable improvements in implicit bias in response to some interventions. Conversely, younger participants, especially women, showed increasing bias in response to the same interventions. These results highlight the complex and identity-sensitive nature of stereotype mitigation and call for dynamic and context-aware evaluation and mitigation strategies.
- Abstract(参考訳): ソーシャルメディア上での性別バイアスに対する反ステレオタイプの自動生成の効果について検討した。
近年のNLPの進歩と社会心理学の文献に基づいて, カウンター・ステレオタイプ戦略, 反事実と普遍性の拡大(つまり, 集団構成によらず誰でも特性を持つことができること)を評価する。
Inlicit Association Testと、明示的偏見と知覚的有用性の自己申告尺度を通じて、これらの戦略がユーザー人口(性別と年齢)の性別偏見を緩和する上での現実的な影響を評価した。
以上の結果から,実効性は認識された有効性と一致せず,前者は人口集団間で曖昧であり,時として相違する現象であることが明らかとなった。
全体的なバイアス低減は限定的であったが、一部のグループ(例えば、高齢者、男性など)は、いくつかの介入に反応して、暗黙のバイアスが測定可能な改善を示した。
逆に、若年者、特に女性では、同じ介入に対するバイアスが増大した。
これらの結果は、ステレオタイプ緩和の複雑でアイデンティティに敏感な性質を強調し、動的・文脈認識評価と緩和戦略を呼びかける。
関連論文リスト
- EMO-Debias: Benchmarking Gender Debiasing Techniques in Multi-Label Speech Emotion Recognition [49.27067541740956]
EMO-Debiasは、マルチラベルSERに適用された13のデバイアス手法の大規模比較である。
本研究は, 事前処理, 正規化, 逆学習, バイアス学習者, 分散的ロバストな最適化といった手法を含む。
本分析は公平性と正確性の間のトレードオフを定量化し,どのアプローチが一貫して性差を減少させるのかを同定する。
論文 参考訳(メタデータ) (2025-06-05T05:48:31Z) - Fairness Mediator: Neutralize Stereotype Associations to Mitigate Bias in Large Language Models [66.5536396328527]
LLMは必然的にトレーニングデータから急激な相関関係を吸収し、偏りのある概念と特定の社会的グループの間のステレオタイプ的関連をもたらす。
ステレオタイプアソシエーションを中和するバイアス緩和フレームワークであるFairness Mediator (FairMed)を提案する。
本フレームワークは, ステレオタイプアソシエーションプローバーと, 対向型デバイアス中和剤の2つの主成分からなる。
論文 参考訳(メタデータ) (2025-04-10T14:23:06Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Challenging Negative Gender Stereotypes: A Study on the Effectiveness of Automated Counter-Stereotypes [12.704072523930444]
本研究では,オンラインコミュニケーションにおいて,ジェンダーのステレオタイプに自動的に対抗し,挑戦する11の戦略について検討する。
我々は、AIによるジェンダーベースのカウンターステレオタイプを参加者に提示し、攻撃性、妥当性、そして潜在的有効性を評価するよう依頼する。
論文 参考訳(メタデータ) (2024-04-18T01:48:28Z) - Explaining Knock-on Effects of Bias Mitigation [13.46387356280467]
機械学習システムでは、バイアス緩和アプローチは特権と特権のないグループ間で成果をより公平にすることを目的としている。
本稿では,緩和介入を適用した場合のコホートの影響を特徴付けることを目的とする。
モデルライフサイクルの様々な段階で機能するバイアス緩和戦略について検討する。
検討の結果,全ての緩和策が非自明な事例,すなわち緩和努力のみでは望ましくない結果に悪影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2023-12-01T18:40:37Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Deep Generative Views to Mitigate Gender Classification Bias Across
Gender-Race Groups [0.8594140167290097]
本稿では,性別・人種グループ間の偏見を低減し,分類精度を向上させるためのバイアス緩和戦略を提案する。
我々は、ジェンダー分類バイアスを軽減するために、生成的視点、構造化学習、そして明らかな学習の力を利用する。
論文 参考訳(メタデータ) (2022-08-17T16:23:35Z) - Toward Understanding Bias Correlations for Mitigation in NLP [34.956581421295]
この研究は、緩和におけるバイアスの相関を理解するための最初の体系的な研究を提供することを目的としている。
我々は2つの共通NLPタスク(毒性検出と単語埋め込み)におけるバイアス緩和について検討する。
以上の結果から, 偏見は相関し, 独立性脱バイアスアプローチが不十分な現状が示唆された。
論文 参考訳(メタデータ) (2022-05-24T22:48:47Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。