論文の概要: Challenging Negative Gender Stereotypes: A Study on the Effectiveness of Automated Counter-Stereotypes
- arxiv url: http://arxiv.org/abs/2404.11845v1
- Date: Thu, 18 Apr 2024 01:48:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 19:50:54.515041
- Title: Challenging Negative Gender Stereotypes: A Study on the Effectiveness of Automated Counter-Stereotypes
- Title(参考訳): 対立する性ステレオタイプ:自動対人ステレオタイプの有効性に関する研究
- Authors: Isar Nejadgholi, Kathleen C. Fraser, Anna Kerkhof, Svetlana Kiritchenko,
- Abstract要約: 本研究では,オンラインコミュニケーションにおいて,ジェンダーのステレオタイプに自動的に対抗し,挑戦する11の戦略について検討する。
我々は、AIによるジェンダーベースのカウンターステレオタイプを参加者に提示し、攻撃性、妥当性、そして潜在的有効性を評価するよう依頼する。
- 参考スコア(独自算出の注目度): 12.704072523930444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gender stereotypes are pervasive beliefs about individuals based on their gender that play a significant role in shaping societal attitudes, behaviours, and even opportunities. Recognizing the negative implications of gender stereotypes, particularly in online communications, this study investigates eleven strategies to automatically counter-act and challenge these views. We present AI-generated gender-based counter-stereotypes to (self-identified) male and female study participants and ask them to assess their offensiveness, plausibility, and potential effectiveness. The strategies of counter-facts and broadening universals (i.e., stating that anyone can have a trait regardless of group membership) emerged as the most robust approaches, while humour, perspective-taking, counter-examples, and empathy for the speaker were perceived as less effective. Also, the differences in ratings were more pronounced for stereotypes about the different targets than between the genders of the raters. Alarmingly, many AI-generated counter-stereotypes were perceived as offensive and/or implausible. Our analysis and the collected dataset offer foundational insight into counter-stereotype generation, guiding future efforts to develop strategies that effectively challenge gender stereotypes in online interactions.
- Abstract(参考訳): ジェンダーのステレオタイプは、社会的態度、行動、機会を形作る上で重要な役割を果たす性別に基づく個人についての広汎な信念である。
本研究は,特にオンラインコミュニケーションにおいて,ジェンダーステレオタイプに否定的な意味があることを認識し,これらの視点に対抗し,挑戦するための11の戦略について検討する。
我々は, 性別に基づくカウンターステレオタイプを, 男女共同研究参加者に提示し, 攻撃性, 妥当性, 潜在的有効性を評価する。
カウンターファクトの戦略と普遍性の拡大(すなわち、グループメンバーによらず誰でも特性を持つことができること)は最も堅牢なアプローチとして現れ、一方、ユーモア、視点取り、反例、共感は、話者に対する効果が低かった。
また, 評価の差異は, ラッカーの性別の違いよりも, 目標のステレオタイプに対して顕著であった。
異常に多くのAI生成の反ステレオタイプが攻撃的または/または不可解であると認識された。
我々の分析と収集したデータセットは、オンラインインタラクションにおけるジェンダーステレオタイプに効果的に挑戦する戦略を開発するための今後の取り組みを導く、反ステレオタイプ生成に関する基礎的な洞察を提供する。
関連論文リスト
- Revisiting The Classics: A Study on Identifying and Rectifying Gender Stereotypes in Rhymes and Poems [0.0]
この研究は、男女のステレオタイプを特定するために韻文と詩のデータセットを集め、性別バイアスを特定するために97%の精度のモデルを提案することで貢献する。
ジェンダーのステレオタイプをLarge Language Model (LLM) を用いて修正し、その効果を人間の教育者に対する比較調査で評価した。
論文 参考訳(メタデータ) (2024-03-18T13:02:02Z) - The Male CEO and the Female Assistant: Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,T2Iモデルを二重オブジェクト生成設定で体系的に評価するPaired Stereotype Test (PST) フレームワークを提案する。
PSTは、二重オブジェクト生成タスク、すなわち、同じイメージで2人を生成するタスクである。
DALLE-3は、一見公平で反ステレオタイプな単体画像でも、PST下では顕著な偏見を示す。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Stereotypes and Smut: The (Mis)representation of Non-cisgender
Identities by Text-to-Image Models [6.92043136971035]
マルチモーダルモデルが男女同一性をどのように扱うかを検討する。
特定の非シスジェンダーのアイデンティティは、人間より少なく、ステレオタイプで、性的にも、一貫して(ミス)表現されている。
これらの改善は、影響のあるコミュニティによって変革が導かれる未来への道を開く可能性がある。
論文 参考訳(メタデータ) (2023-05-26T16:28:49Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - Deep Generative Views to Mitigate Gender Classification Bias Across
Gender-Race Groups [0.8594140167290097]
本稿では,性別・人種グループ間の偏見を低減し,分類精度を向上させるためのバイアス緩和戦略を提案する。
我々は、ジェンダー分類バイアスを軽減するために、生成的視点、構造化学習、そして明らかな学習の力を利用する。
論文 参考訳(メタデータ) (2022-08-17T16:23:35Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Understanding and Countering Stereotypes: A Computational Approach to
the Stereotype Content Model [4.916009028580767]
ステレオタイプコンテンツモデル(SCM)を用いてテキスト中のステレオタイプを解釈する計算手法を提案する。
SCMは、ステレオタイプは温かさと能力の2つの主要な次元に沿って理解することができると提案している。
反ステレオタイプ的な例によるステレオタイプに対抗することは、偏見的思考を減らす最も効果的な方法の1つであることが知られている。
論文 参考訳(メタデータ) (2021-06-04T16:53:37Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Can gender inequality be created without inter-group discrimination? [0.0]
単純なエージェントベースの動的プロセスが男女不平等を生じさせるかどうかを検証した。
我々は、ランダムに選択されたエージェントのペアで相互作用する集団をシミュレートし、自己および他者の評価判断に影響を及ぼす。
偏見, ステレオタイプ, 分離, 分類がなければ, 本モデルは, ガラス天井効果の安定性, 調和性, 特性を示す自己評価と状態の群間不平等を生じさせる。
論文 参考訳(メタデータ) (2020-05-05T07:33:27Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。