論文の概要: Normative Equivalence in Human-AI Cooperation: Behaviour, Not Identity, Drives Cooperation in Mixed-Agent Groups
- arxiv url: http://arxiv.org/abs/2601.20487v2
- Date: Thu, 29 Jan 2026 12:58:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 14:13:20.060876
- Title: Normative Equivalence in Human-AI Cooperation: Behaviour, Not Identity, Drives Cooperation in Mixed-Agent Groups
- Title(参考訳): 人間とAIの協調における規範的等価性: 混成エージェント集団における行動, アイデンティティ, 協調を促進する
- Authors: Nico Mutzner, Taha Yasseri, Heiko Rauhut,
- Abstract要約: 我々は,AIエージェントの統合が小集団における協調規範の出現と維持にどのように影響するかを検討する。
236名の被験者を対象に, 相互群動態と行動慣性が主に協調に寄与していることを発見した。
参加者の行動は、人間とAIの条件にまたがる同じ規範的論理に従っており、協力はパートナーのアイデンティティではなくグループ行動に依存していることを示している。
- 参考スコア(独自算出の注目度): 0.3823356975862005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The introduction of artificial intelligence (AI) agents into human group settings raises essential questions about how these novel participants influence cooperative social norms. While previous studies on human-AI cooperation have primarily focused on dyadic interactions, little is known about how integrating AI agents affects the emergence and maintenance of cooperative norms in small groups. This study addresses this gap through an online experiment using a repeated four-player Public Goods Game (PGG). Each group consisted of three human participants and one bot, which was framed either as human or AI and followed one of three predefined decision strategies: unconditional cooperation, conditional cooperation, or free-riding. In our sample of 236 participants, we found that reciprocal group dynamics and behavioural inertia primarily drove cooperation. These normative mechanisms operated identically across conditions, resulting in cooperation levels that did not differ significantly between human and AI labels. Furthermore, we found no evidence of differences in norm persistence in a follow-up Prisoner's Dilemma, or in participants' normative perceptions. Participants' behaviour followed the same normative logic across human and AI conditions, indicating that cooperation depended on group behaviour rather than partner identity. This supports a pattern of normative equivalence, in which the mechanisms that sustain cooperation function similarly in mixed human-AI and all human groups. These findings suggest that cooperative norms are flexible enough to extend to artificial agents, blurring the boundary between humans and AI in collective decision-making.
- Abstract(参考訳): 人工知能(AI)エージェントの人間グループ設定への導入は、これらの新規参加者がどのように協力的な社会規範に影響を及ぼすかについて重要な疑問を提起する。
従来の人間とAIの協調研究は、主にダイアド的相互作用に焦点を当てていたが、AIエージェントの統合が小グループにおける協調規範の出現と維持にどのように影響するかは、ほとんど分かっていない。
本研究は,4人プレイのパブリック・グッズ・ゲーム(PGG)を用いたオンライン実験を通じて,このギャップを解消する。
各グループは3人の人間の参加者と1人のボットで構成され、それらは人間またはAIとしてフレーム化され、3つの事前定義された決定戦略のうちの1つに従っていた。
236名の被験者を対象に, 相互群動態と行動慣性が主に協調に寄与していることを発見した。
これらの規範的メカニズムは条件によって同一に動作し、その結果、人間とAIのラベル間で大きな違いのない協力レベルが生じる。
さらに, 受刑者のジレンマや参加者の規範的知覚において, 規範的持続性の違いの証拠は見つからなかった。
参加者の行動は、人間とAIの条件にまたがる同じ規範的論理に従っており、協力はパートナーのアイデンティティではなくグループ行動に依存していることを示している。
これは規範的等価性のパターンをサポートし、協調を維持するメカニズムは、ヒト-AIとすべてのヒトグループで同様に機能する。
これらの結果は、協調的規範が人工エージェントに拡張できるほど柔軟であり、集団的意思決定において人間とAIの境界を曖昧にしていることを示唆している。
関連論文リスト
- Human-Human-AI Triadic Programming: Uncovering the Role of AI Agent and the Value of Human Partner in Collaborative Learning [10.772613370888516]
我々の研究は、人間-人間-AI(HHAI)三進プログラミングを導入し、AIエージェントは人間のパートナーの代わりに、追加の協力者として機能する。
三進的HHAI条件では、参加者は仕事においてAI生成コードに依存していなかった。
これらの知見は、AIを可視化し、人間の仲間に説明責任を持たせることによって、三進的セッティングが社会的に共有される学習の規制をどのように活性化するかを示す。
論文 参考訳(メタデータ) (2026-01-17T18:32:54Z) - Cooperation Through Indirect Reciprocity in Child-Robot Interactions [81.62347137438248]
間接的相互性は子どもとロボットの相互作用に変換できるかどうかを考察する。
IRは子どもやロボットに拡張され、協調ジレンマが解決される。
マルチアームバンディットアルゴリズムによる協調は,人間による戦略に大きく依存していることが観察された。
論文 参考訳(メタデータ) (2025-11-07T07:08:32Z) - When Trust Collides: Decoding Human-LLM Cooperation Dynamics through the Prisoner's Dilemma [10.143277649817096]
本研究では,大規模言語モデル(LLM)エージェントに対する人間の協調的態度と行動について検討する。
その結果, エージェントアイデンティティがほとんどの協調行動に有意な影響を及ぼすことが明らかとなった。
これらの知見は,自律エージェントとの競争におけるヒト適応の理解に寄与する。
論文 参考訳(メタデータ) (2025-03-10T13:37:36Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Position: Towards Bidirectional Human-AI Alignment [109.57781720848669]
我々は、人間とAIの双方向的・動的関係を説明するために、研究コミュニティは「調整」を明確に定義し、批判的に反映すべきであると主張する。
このフレームワークは、AIと人間の価値を整合させる従来の取り組みを取り入れているだけでなく、人間とAIを整合させるという、重要で未解明の次元も導入しています。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Multi-Agent, Human-Agent and Beyond: A Survey on Cooperation in Social Dilemmas [15.785674974107204]
社会ジレンマにおける協力の研究は、長年、様々な分野の基本的なトピックであった。
人工知能の最近の進歩は、この分野を大きく変えた。
この調査は、AIの交差点における3つの重要な領域と、社会的ジレンマにおける協力について調査する。
論文 参考訳(メタデータ) (2024-02-27T07:31:30Z) - PECAN: Leveraging Policy Ensemble for Context-Aware Zero-Shot Human-AI
Coordination [52.991211077362586]
本研究では,集団におけるパートナーの多様性を高めるための政策アンサンブル手法を提案する。
そこで我々は,egoエージェントがパートナーの潜在的ポリシープリミティブを分析し,識別するためのコンテキスト認識手法を開発した。
このようにして、エゴエージェントは多様なパートナーとの共同作業において、より普遍的な協調行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-01-16T12:14:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。