論文の概要: Visual Anthropomorphism Shifts Evaluations of Gendered AI Managers
- arxiv url: http://arxiv.org/abs/2602.17919v1
- Date: Fri, 20 Feb 2026 00:30:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.193744
- Title: Visual Anthropomorphism Shifts Evaluations of Gendered AI Managers
- Title(参考訳): 視覚的擬人化は、ジェンダーAIマネージャの評価をシフトさせる
- Authors: Ruiqing Han, Hao Cui, Taha Yasseri,
- Abstract要約: 本研究は,AIマネージャの評価において,ジェンダーバイアスを低減できるかどうかを検討する。
我々は、AIマネージャのテキストベースの記述と、逆相関パラダイムを用いて生成された視覚的に生成されたAI顔を比較する。
- 参考スコア(独自算出の注目度): 0.7430785314896758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This research examines whether competence cues can reduce gender bias in evaluations of AI managers and whether these effects depend on how the AI is represented. Across two preregistered experiments (N = 2,505), each employing a 2 x 2 x 3 design manipulating AI gender, competence, and decision outcome, we compared text-based descriptions of AI managers with visually generated AI faces created using a reverse-correlation paradigm. In the text condition, evaluations were driven by competence rather than gender. When participants received unfavourable decisions, high-competence AI managers were judged as fairer, more competent, and better leaders than low-competence managers, regardless of AI gender. In contrast, when the AI manager was visually represented, competence cues had attenuated influence once facial information was present. Instead, participants showed systematic gender-differentiated responses to AI faces, with feminine-appearing managers evaluated as more competent and more trustworthy than masculine-appearing managers, particularly when delivering favourable outcomes. These gender effects were largely absent when outcomes were unfavourable, suggesting that negative feedback attenuates the influence of both competence information and facial cues. Taken together, these findings show that competence information can mitigate negative reactions to AI managers in text-based interactions, whereas facial anthropomorphism elicits gendered perceptual biases not observed in text-only settings. The results highlight that representational modality plays a critical role in determining when gender stereotypes are activated in evaluations of AI systems and underscore that design choices are consequential for AI governance in evaluative contexts.
- Abstract(参考訳): 本研究は,AIマネージャの評価における性差の低減と,これらの効果がAIの表現方法に依存するかどうかを検討する。
2つの事前登録された実験(N = 2,505)で、それぞれ2 x 2 x 3の設計でAIの性別、能力、決定結果を操作する。
テキスト条件では、評価は性別よりも能力によって駆動される。
参加者が好ましくない決定を受けたとき、AIの性別に関わらず、高能力のAIマネージャは、より公平で、より有能で、より優れたリーダーであると判断された。
対照的に、AIマネージャが視覚的に表現された場合、顔情報が存在すると、コンピテンス・キューは影響を弱めていた。
その代わり、参加者はAIの顔に対する組織的な性別差の反応を示し、女性に現れるマネージャは男性に現れるマネージャよりも有能で信頼性が高いと評価された。
これらの性別効果は、結果が望ましくない場合にほとんど欠落しており、負のフィードバックが能力情報と顔の手がかりの両方の影響を弱めることが示唆された。
これらの知見を総合すると、能力情報はテキストベースの相互作用においてAI管理者に対するネガティブな反応を緩和するが、顔の人格化は、テキストのみの設定では観察されない知覚バイアスを性的に引き起こす。
その結果、表現のモダリティは、AIシステムの評価においてジェンダーステレオタイプがアクティベートされる時期を決定する上で重要な役割を担い、設計選択が評価的文脈におけるAIガバナンスに適切であることを示す。
関連論文リスト
- Fairness Is Not Enough: Auditing Competence and Intersectional Bias in AI-powered Resume Screening [0.0]
本研究では,8つの主要なAIプラットフォームに関する2部監査を通じて,能力の問題を検討する。
実験1では、複雑な、文脈的な人種的、性別的偏見が確認され、いくつかのモデルは、人口統計学的信号の存在のために候補を罰するだけであった。
実験2は、コア能力を評価し、重要な洞察を与えた: バイアスのないように見えるいくつかのモデルは、実際に、実質的な評価を行うことができない。
論文 参考訳(メタデータ) (2025-07-11T16:57:13Z) - Gender Bias in Perception of Human Managers Extends to AI Managers [2.5063318977668465]
AIが職場に組み込まれるにつれ、効率性のためのツールから、組織的な意思決定において積極的な力へとシフトしつつある。
AIマネージャが人間マネージャと比較してどのように認識され、ジェンダーがこれらの知覚にどのように影響するかは、まだ不明である。
ランダム化制御試験(RCT)を実施し,ランダムに割り当てられたマネージャの下で3人のチームが協力して作業した。
論文 参考訳(メタデータ) (2025-02-24T23:52:05Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、デバイアス化と性能維持の最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Responsible AI: Gender bias assessment in emotion recognition [6.833826997240138]
本研究は、顔認識のための深層学習手法における性別バイアスの研究を目的とする。
より多くのバイアスニューラルネットワークは、男性と女性のテストセット間の感情認識のより大きな精度のギャップを示しています。
論文 参考訳(メタデータ) (2021-03-21T17:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。