論文の概要: Can gender inequality be created without inter-group discrimination?
- arxiv url: http://arxiv.org/abs/2005.01980v1
- Date: Tue, 5 May 2020 07:33:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-21 03:09:04.168835
- Title: Can gender inequality be created without inter-group discrimination?
- Title(参考訳): グループ間差別なしで男女不平等を創出できるのか?
- Authors: Sylvie Huet1, Floriana Gargiulo, and Felicia Pratto
- Abstract要約: 単純なエージェントベースの動的プロセスが男女不平等を生じさせるかどうかを検証した。
我々は、ランダムに選択されたエージェントのペアで相互作用する集団をシミュレートし、自己および他者の評価判断に影響を及ぼす。
偏見, ステレオタイプ, 分離, 分類がなければ, 本モデルは, ガラス天井効果の安定性, 調和性, 特性を示す自己評価と状態の群間不平等を生じさせる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding human societies requires knowing how they develop gender
hierarchies which are ubiquitous. We test whether a simple agent-based dynamic
process could create gender inequality. Relying on evidence of gendered status
concerns, self-construals, and cognitive habits, our model included a gender
difference in how responsive male-like and female-like agents are to others'
opinions about the level of esteem for someone. We simulate a population who
interact in pairs of randomly selected agents to influence each other about
their esteem judgments of self and others. Half the agents are more influenced
by their relative status rank during the interaction than the others. Without
prejudice, stereotypes, segregation, or categorization, our model produces
inter-group inequality of self-esteem and status that is stable, consensual,
and exhibits characteristics of glass ceiling effects. Outcomes are not
affected by relative group size. We discuss implications for group orientation
to dominance and individuals' motivations to exchange.
- Abstract(参考訳): 人間の社会を理解するには、ユビキタスなジェンダー階層の開発方法を知る必要がある。
単純なエージェントベースの動的プロセスが性別の不平等を生み出すかどうかをテストした。
本モデルでは, 男女関係, 自己コントラスト, 認知習慣の証拠をもとに, 他者に対する評価のレベルについて, 男性的, 女性的エージェントが他人の意見にどう反応するかについて, 性別差を考察した。
我々は、ランダムに選択されたエージェントのペアで相互作用する集団をシミュレートし、自他者の評価判断に影響を及ぼす。
半分のエージェントは他のエージェントよりも相対的な地位の影響を受けている。
偏見, ステレオタイプ, 分離, 分類がなければ, 本モデルは, ガラス天井効果の安定性, 調和性, 特性を示す自己評価と状態の群間不平等を生じさせる。
結果は相対的なグループサイズに影響されない。
グループ指向が支配にもたらす意味と、個人が交換する動機について議論する。
関連論文リスト
- The Male CEO and the Female Assistant: Probing Gender Biases in
Text-To-Image Models Through Paired Stereotype Test [68.84245853250906]
DALLE-3のような最近の大規模テキスト・ツー・イメージ(T2I)モデルは、新しいアプリケーションにおいて大きな可能性を秘めているが、前例のない公平さの課題に直面している。
本稿では,Paired Stereotype Test (PST) のバイアス評価フレームワークを提案する。
以上の結果から,現代T2Iモデルにおける男女差の複雑なパターンが明らかとなり,マルチモーダル生成システムにおける批判的公平性の課題が浮き彫りになった。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Stereotypes and Smut: The (Mis)representation of Non-cisgender
Identities by Text-to-Image Models [6.92043136971035]
マルチモーダルモデルが男女同一性をどのように扱うかを検討する。
特定の非シスジェンダーのアイデンティティは、人間より少なく、ステレオタイプで、性的にも、一貫して(ミス)表現されている。
これらの改善は、影響のあるコミュニティによって変革が導かれる未来への道を開く可能性がある。
論文 参考訳(メタデータ) (2023-05-26T16:28:49Z) - Comparing Humans and Models on a Similar Scale: Towards Cognitive Gender
Bias Evaluation in Coreference Resolution [11.711298780873468]
モデルバイアスが人間の行動を反映する程度を定量化できますか?
我々は,2つのクラウドソーシング実験から,男女差の偏差をコアパラメータ分解で観測する。
実世界のデータでは、人間はモデルに比べて性別に偏った決定を$sim$3%多くし、合成データモデルでは$sim$12%の偏りがある。
論文 参考訳(メタデータ) (2023-05-24T17:51:44Z) - Fairness in AI Systems: Mitigating gender bias from language-vision
models [0.913755431537592]
既存のデータセットにおける性別バイアスの影響について検討する。
本稿では,キャプションに基づく言語視覚モデルにおけるその影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T04:33:44Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - Language, communication and society: a gender based linguistics analysis [0.0]
本研究の目的は,言語が私たちの思考のミラーであるという仮説を支持する証拠を見つけることである。
回答は、心理的特徴や行動特性の帰属など、性別のステレオタイプが存在するかどうかを調べるために分析されてきた。
論文 参考訳(メタデータ) (2020-07-14T08:38:37Z) - What's Sex Got To Do With Fair Machine Learning? [0.0]
フェアネス」に対する多くのアプローチでは、データ生成プロセスの因果モデルを指定する必要がある、と我々は主張する。
因果モデルにおけるモジュラリティの形式的な仮定を探求することによって、これを実証する。
我々は、この存在論的なイメージは誤りであると主張する。セックスが「原因」であるとされる「影響」の多くは、実際には、社会的地位としての性の特徴である。
論文 参考訳(メタデータ) (2020-06-02T16:51:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。