論文の概要: Can gender inequality be created without inter-group discrimination?
- arxiv url: http://arxiv.org/abs/2005.01980v1
- Date: Tue, 5 May 2020 07:33:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-21 03:09:04.168835
- Title: Can gender inequality be created without inter-group discrimination?
- Title(参考訳): グループ間差別なしで男女不平等を創出できるのか?
- Authors: Sylvie Huet1, Floriana Gargiulo, and Felicia Pratto
- Abstract要約: 単純なエージェントベースの動的プロセスが男女不平等を生じさせるかどうかを検証した。
我々は、ランダムに選択されたエージェントのペアで相互作用する集団をシミュレートし、自己および他者の評価判断に影響を及ぼす。
偏見, ステレオタイプ, 分離, 分類がなければ, 本モデルは, ガラス天井効果の安定性, 調和性, 特性を示す自己評価と状態の群間不平等を生じさせる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding human societies requires knowing how they develop gender
hierarchies which are ubiquitous. We test whether a simple agent-based dynamic
process could create gender inequality. Relying on evidence of gendered status
concerns, self-construals, and cognitive habits, our model included a gender
difference in how responsive male-like and female-like agents are to others'
opinions about the level of esteem for someone. We simulate a population who
interact in pairs of randomly selected agents to influence each other about
their esteem judgments of self and others. Half the agents are more influenced
by their relative status rank during the interaction than the others. Without
prejudice, stereotypes, segregation, or categorization, our model produces
inter-group inequality of self-esteem and status that is stable, consensual,
and exhibits characteristics of glass ceiling effects. Outcomes are not
affected by relative group size. We discuss implications for group orientation
to dominance and individuals' motivations to exchange.
- Abstract(参考訳): 人間の社会を理解するには、ユビキタスなジェンダー階層の開発方法を知る必要がある。
単純なエージェントベースの動的プロセスが性別の不平等を生み出すかどうかをテストした。
本モデルでは, 男女関係, 自己コントラスト, 認知習慣の証拠をもとに, 他者に対する評価のレベルについて, 男性的, 女性的エージェントが他人の意見にどう反応するかについて, 性別差を考察した。
我々は、ランダムに選択されたエージェントのペアで相互作用する集団をシミュレートし、自他者の評価判断に影響を及ぼす。
半分のエージェントは他のエージェントよりも相対的な地位の影響を受けている。
偏見, ステレオタイプ, 分離, 分類がなければ, 本モデルは, ガラス天井効果の安定性, 調和性, 特性を示す自己評価と状態の群間不平等を生じさせる。
結果は相対的なグループサイズに影響されない。
グループ指向が支配にもたらす意味と、個人が交換する動機について議論する。
関連論文リスト
- The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、下流タスクにおけるデバイアスとパフォーマンスの最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - Moral Judgments in Online Discourse are not Biased by Gender [3.2771631221674333]
r/AITAはRedditのコミュニティで1700万人のメンバーが参加し、コミュニティの行動に関する判断を求める経験を共有しています。
受理した道徳判断に対する主人公の性別の直接的な因果関係は見つからない。
本研究は、既存の相関研究を補完し、ジェンダーの役割が特定の社会的文脈により大きな影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2024-08-23T07:10:48Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Challenging Negative Gender Stereotypes: A Study on the Effectiveness of Automated Counter-Stereotypes [12.704072523930444]
本研究では,オンラインコミュニケーションにおいて,ジェンダーのステレオタイプに自動的に対抗し,挑戦する11の戦略について検討する。
我々は、AIによるジェンダーベースのカウンターステレオタイプを参加者に提示し、攻撃性、妥当性、そして潜在的有効性を評価するよう依頼する。
論文 参考訳(メタデータ) (2024-04-18T01:48:28Z) - Protected group bias and stereotypes in Large Language Models [2.1122940074160357]
本稿では,倫理と公正の領域におけるLarge Language Models(LLM)の振る舞いについて考察する。
マイノリティ化されたグループに偏見はありますが、特に性別やセクシュアリティの領域では、西洋の偏見も見られます。
論文 参考訳(メタデータ) (2024-03-21T00:21:38Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Fairness in AI Systems: Mitigating gender bias from language-vision
models [0.913755431537592]
既存のデータセットにおける性別バイアスの影響について検討する。
本稿では,キャプションに基づく言語視覚モデルにおけるその影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T04:33:44Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - What's Sex Got To Do With Fair Machine Learning? [0.0]
フェアネス」に対する多くのアプローチでは、データ生成プロセスの因果モデルを指定する必要がある、と我々は主張する。
因果モデルにおけるモジュラリティの形式的な仮定を探求することによって、これを実証する。
我々は、この存在論的なイメージは誤りであると主張する。セックスが「原因」であるとされる「影響」の多くは、実際には、社会的地位としての性の特徴である。
論文 参考訳(メタデータ) (2020-06-02T16:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。