論文の概要: Gender Bias in Perception of Human Managers Extends to AI Managers
- arxiv url: http://arxiv.org/abs/2502.17730v1
- Date: Mon, 24 Feb 2025 23:52:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:22:30.279587
- Title: Gender Bias in Perception of Human Managers Extends to AI Managers
- Title(参考訳): ジェンダーバイアス、AIマネージャへの人間マネージャの認識を拡大
- Authors: Hao Cui, Taha Yasseri,
- Abstract要約: 我々は、AIマネージャが人間マネージャと比較してどのように認識されるかを検討する。
以上の結果から,リーダーシップにおけるジェンダーバイアスは,人的マネージャを超えて,AIによる意思決定にも及んでいることが示唆された。
AIはより管理的な役割を担っているため、公平で効果的なAI管理システムの設計には、これらのバイアスを理解し、対処することが不可欠である。
- 参考スコア(独自算出の注目度): 2.5063318977668465
- License:
- Abstract: As AI becomes more embedded in workplaces, it is shifting from a tool for efficiency to an active force in organizational decision-making. Whether due to anthropomorphism or intentional design choices, people often assign human-like qualities - including gender - to AI systems. However, how AI managers are perceived in comparison to human managers and how gender influences these perceptions remains uncertain. To investigate this, we conducted randomized controlled trials (RCTs) where teams of three participants worked together under a randomly assigned manager - either human or AI - who was presented as male, female, or gender-neutral. The manager's role was to select the best-performing team member for an additional award. Our findings reveal that while participants initially showed no strong preference based on manager type or gender, their perceptions changed significantly after experiencing the award process. As expected, those who received awards rated their managers as more fair, competent, and trustworthy, while those who were not selected viewed them less favorably. However, male managers - both human and AI - were more positively received by awarded participants, whereas female managers, especially female AI managers, faced greater skepticism and negative judgments when they denied rewards. These results suggest that gender bias in leadership extends beyond human managers and towards AI-driven decision-makers. As AI takes on greater managerial roles, understanding and addressing these biases will be crucial for designing fair and effective AI management systems.
- Abstract(参考訳): AIが職場に組み込まれるにつれ、効率性のためのツールから、組織的な意思決定において積極的な力へとシフトしつつある。
擬人化か意図的なデザインの選択かに関わらず、人々はAIシステムに人のような性質(性別を含む)を割り当てることが多い。
しかしながら、AIマネージャが人間のマネージャと比較してどのように認識されるか、性別がこれらの知覚にどのように影響するかは、まだ不明である。
これを調べるために、3人の参加者からなるチームがランダムに割り当てられたマネージャ(人間かAI)の下で協力してランダム化対照試験(RCT)を行い、男性、女性、性中立性として提示した。
監督の役割は、追加の賞のために最高のパフォーマンスのチームメンバーを選ぶことだった。
調査の結果,初回は管理者のタイプや性別による嗜好は認められなかったが,受賞後の認知は有意に変化した。
予想通り、賞を受けた者は、管理者をより公平で有能で信頼できるものと評価し、選ばれていない者はより好ましくないと見なした。
しかしながら、人間とAIの両方の男性マネージャーは受賞した参加者からより肯定的な評価を受け、一方、女性マネージャー、特に女性のAIマネージャは、報酬を否定したとき、より懐疑的で否定的な判断に直面した。
これらの結果は、リーダーシップにおけるジェンダーバイアスが、人間のマネージャを超えて、AIによる意思決定へと広がることを示唆している。
AIはより管理的な役割を担っているため、公平で効果的なAI管理システムの設計には、これらのバイアスを理解し、対処することが不可欠である。
関連論文リスト
- Human Decision-making is Susceptible to AI-driven Manipulation [87.24007555151452]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - AI's assigned gender affects human-AI cooperation [0.0]
本研究では、AIエージェントに割り当てられた性別ラベルに基づいて、人間の協力がどう変化するかを検討する。
囚人のジレンマゲームでは、402人の参加者がAI(ボット)または人間とラベル付けされたパートナーと対話した。
その結果、参加者は人間のエージェントよりも女性や不信心のAIエージェントを利用する傾向が見られた。
論文 参考訳(メタデータ) (2024-12-06T17:46:35Z) - Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、下流タスクにおけるデバイアスとパフォーマンスの最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Optimizing Risk-averse Human-AI Hybrid Teams [1.433758865948252]
本稿では,標準化された強化学習スキームを通じて,最良デリゲート法を学習するマネージャを提案する。
いくつかのグリッド環境において,マネージャのパフォーマンスの最適性を示す。
結果から、マネージャは望ましいデリゲートをうまく習得でき、その結果、チームパスは、ほぼ、あるいは正確には最適であることがわかった。
論文 参考訳(メタデータ) (2024-03-13T09:49:26Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Bias: Friend or Foe? User Acceptance of Gender Stereotypes in Automated
Career Recommendations [8.44485053836748]
我々は、公正なAIアルゴリズムが現実の世界でその意図した結果を達成するには不十分であることを示した。
キャリアレコメンデーションをケーススタディとして利用し、ジェンダーの偏りを抑える機械学習技術を用いて、公正なAIキャリアレコメンデーターを構築する。
論文 参考訳(メタデータ) (2021-06-13T23:27:45Z) - Responsible AI: Gender bias assessment in emotion recognition [6.833826997240138]
本研究は、顔認識のための深層学習手法における性別バイアスの研究を目的とする。
より多くのバイアスニューラルネットワークは、男性と女性のテストセット間の感情認識のより大きな精度のギャップを示しています。
論文 参考訳(メタデータ) (2021-03-21T17:00:21Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。