論文の概要: AI's assigned gender affects human-AI cooperation
- arxiv url: http://arxiv.org/abs/2412.05214v1
- Date: Fri, 06 Dec 2024 17:46:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:57:44.009868
- Title: AI's assigned gender affects human-AI cooperation
- Title(参考訳): AIの割り当てられた性別は人間とAIの協力に影響を及ぼす
- Authors: Sepideh Bazazi, Jurgis Karpus, Taha Yasseri,
- Abstract要約: 本研究では、AIエージェントに割り当てられた性別ラベルに基づいて、人間の協力がどう変化するかを検討する。
囚人のジレンマゲームでは、402人の参加者がAI(ボット)または人間とラベル付けされたパートナーと対話した。
その結果、参加者は人間のエージェントよりも女性や不信心のAIエージェントを利用する傾向が見られた。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Cooperation between humans and machines is increasingly vital as artificial intelligence (AI) becomes more integrated into daily life. Research indicates that people are often less willing to cooperate with AI agents than with humans, more readily exploiting AI for personal gain. While prior studies have shown that giving AI agents human-like features influences people's cooperation with them, the impact of AI's assigned gender remains underexplored. This study investigates how human cooperation varies based on gender labels assigned to AI agents with which they interact. In the Prisoner's Dilemma game, 402 participants interacted with partners labelled as AI (bot) or humans. The partners were also labelled male, female, non-binary, or gender-neutral. Results revealed that participants tended to exploit female-labelled and distrust male-labelled AI agents more than their human counterparts, reflecting gender biases similar to those in human-human interactions. These findings highlight the significance of gender biases in human-AI interactions that must be considered in future policy, design of interactive AI systems, and regulation of their use.
- Abstract(参考訳): 人工知能(AI)が日々の生活に統合されるにつれて、人間と機械の連携はますます重要になっている。
研究によると、人々は人間よりもAIエージェントと協力する意思が低いことが多く、個人の利益のためにAIを利用することが多い。
以前の研究では、AIエージェントに人間のような特徴を与えることが、人々の協力に影響を及ぼすことが示されているが、AIの割り当てられた性別の影響は未解明のままである。
本研究では、AIエージェントに割り当てられた性別ラベルに基づいて、人間の協力がどう変化するかを検討する。
囚人のジレンマゲームでは、402人の参加者がAI(ボット)または人間とラベル付けされたパートナーと対話した。
パートナーには男性、女性、非バイナリ、ジェンダーニュートラルというラベルが付けられていた。
その結果、参加者は人間のエージェントよりも女性や不信心のAIエージェントを利用する傾向があり、人間と人間の相互作用に類似した性別バイアスを反映していることが明らかとなった。
これらの知見は、将来の政策、対話型AIシステムの設計、利用規制で考慮すべき人間とAIの相互作用における性別バイアスの重要性を強調している。
関連論文リスト
- Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Let people fail! Exploring the influence of explainable virtual and robotic agents in learning-by-doing tasks [45.23431596135002]
本研究は,古典的対パートナー意識による説明が学習作業中の人間の行動とパフォーマンスに与える影響を比較検討した。
その結果, パートナー意識による説明は, 関係する人工エージェントの種類によって, 参加者に異なる影響を及ぼした。
論文 参考訳(メタデータ) (2024-11-15T13:22:04Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Measuring Human Contribution in AI-Assisted Content Generation [68.03658922067487]
本研究は,AIによるコンテンツ生成における人間の貢献度を測定する研究課題を提起する。
人間の入力とAI支援出力の自己情報に対する相互情報を計算することにより、コンテンツ生成における人間の比例情報貢献を定量化する。
論文 参考訳(メタデータ) (2024-08-27T05:56:04Z) - On the Utility of Accounting for Human Beliefs about AI Intention in Human-AI Collaboration [9.371527955300323]
我々は、人間がどのように解釈し、AIパートナーの意図を判断するかを捉える人間の信念のモデルを開発する。
私たちは、人間と対話するための戦略を考案する際に、人間の行動と人間の信念の両方を取り入れたAIエージェントを作成します。
論文 参考訳(メタデータ) (2024-06-10T06:39:37Z) - Discriminatory or Samaritan -- which AI is needed for humanity? An
Evolutionary Game Theory Analysis of Hybrid Human-AI populations [0.5308606035361203]
我々は,AIの異なる形態が,一発の囚人のジレンマゲームをする人間の集団における協力の進化にどのように影響するかを研究する。
障害者を含む全員を無条件で支援するサマリア人のAIエージェントは、差別的AIよりも高いレベルの協力を促進することができることがわかった。
論文 参考訳(メタデータ) (2023-06-30T15:56:26Z) - On the Perception of Difficulty: Differences between Humans and AI [0.0]
人間とAIの相互作用における主要な課題は、単一のタスクインスタンスに対する人間とAIエージェントの難しさを見積もることである。
人間とAIの相互作用の分野での研究は、人間とAIの認識の難しさを互いに独立して推定する。
これまでの研究は、人間とAIの認識の難しさの違いを十分に検証していない。
論文 参考訳(メタデータ) (2023-04-19T16:42:54Z) - PECAN: Leveraging Policy Ensemble for Context-Aware Zero-Shot Human-AI
Coordination [52.991211077362586]
本研究では,集団におけるパートナーの多様性を高めるための政策アンサンブル手法を提案する。
そこで我々は,egoエージェントがパートナーの潜在的ポリシープリミティブを分析し,識別するためのコンテキスト認識手法を開発した。
このようにして、エゴエージェントは多様なパートナーとの共同作業において、より普遍的な協調行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-01-16T12:14:58Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Artificial Intelligence & Cooperation [38.19500588776648]
人工知能の台頭は、マシンへの意思決定を断念する、ますます増加する意欲をもたらすだろう。
しかし、機械に私たちに影響を与える決定権を与えるのではなく、AIシステムと協調して働く方法が必要だ。
成功すれば、人間とAIの協力は、人間と人間の協力と同じように社会を構築することができる。
論文 参考訳(メタデータ) (2020-12-10T23:54:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。