論文の概要: Cooperation Through Indirect Reciprocity in Child-Robot Interactions
- arxiv url: http://arxiv.org/abs/2512.20621v1
- Date: Fri, 07 Nov 2025 07:08:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.45185
- Title: Cooperation Through Indirect Reciprocity in Child-Robot Interactions
- Title(参考訳): 子どもとロボットのインタラクションにおける間接的相互性による協調
- Authors: Isabel Neto, Alexandre S. Pires, Filipa Correia, Fernando P. Santos,
- Abstract要約: 間接的相互性は子どもとロボットの相互作用に変換できるかどうかを考察する。
IRは子どもやロボットに拡張され、協調ジレンマが解決される。
マルチアームバンディットアルゴリズムによる協調は,人間による戦略に大きく依存していることが観察された。
- 参考スコア(独自算出の注目度): 81.62347137438248
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social interactions increasingly involve artificial agents, such as conversational or collaborative bots. Understanding trust and prosociality in these settings is fundamental to improve human-AI teamwork. Research in biology and social sciences has identified mechanisms to sustain cooperation among humans. Indirect reciprocity (IR) is one of them. With IR, helping someone can enhance an individual's reputation, nudging others to reciprocate in the future. Transposing IR to human-AI interactions is however challenging, as differences in human demographics, moral judgements, and agents' learning dynamics can affect how interactions are assessed. To study IR in human-AI groups, we combine laboratory experiments and theoretical modelling. We investigate whether 1) indirect reciprocity can be transposed to children-robot interactions; 2) artificial agents can learn to cooperate given children's strategies; and 3) how differences in learning algorithms impact human-AI cooperation. We find that IR extends to children and robots solving coordination dilemmas. Furthermore, we observe that the strategies revealed by children provide a sufficient signal for multi-armed bandit algorithms to learn cooperative actions. Beyond the experimental scenarios, we observe that cooperating through multi-armed bandit algorithms is highly dependent on the strategies revealed by humans.
- Abstract(参考訳): 社会的相互作用は、会話ボットや協調ボットのような人工エージェントをますます巻き込む。
これらの設定で信頼と社会性を理解することは、人間とAIのチームワークを改善するのに不可欠である。
生物学と社会科学の研究は、人間同士の協力を維持するメカニズムを特定している。
間接互恵性(IR)はその1つである。
IRでは、誰かの評判を高める手助けをし、将来、他人に互恵するように促す。
しかしながら、人間の人口統計、道徳的判断、エージェントの学習力学の違いが相互作用の評価方法に影響を与えるため、IRを人間とAIの相互作用に変換することは困難である。
人間-AIグループのIRを研究するために,実験室実験と理論的モデリングを組み合わせる。
調査する
1) 間接的相互性は,子供とロボットの相互作用に伝達することができる。
2) 人工エージェントは,子どもの戦略に従って協力することを学ぶことができる。
3)学習アルゴリズムの違いが人間とAIの協力にどのように影響するか。
IRは子どもやロボットに拡張され、協調ジレンマが解決される。
さらに、子どもが明らかにした戦略が、協調行動を学ぶのに十分な信号となることを観察した。
実験シナリオの他に、マルチアームバンディットアルゴリズムによる協調は、人間が明らかにする戦略に大きく依存していることが観察された。
関連論文リスト
- When Trust Collides: Decoding Human-LLM Cooperation Dynamics through the Prisoner's Dilemma [10.143277649817096]
本研究では,大規模言語モデル(LLM)エージェントに対する人間の協調的態度と行動について検討する。
その結果, エージェントアイデンティティがほとんどの協調行動に有意な影響を及ぼすことが明らかとなった。
これらの知見は,自律エージェントとの競争におけるヒト適応の理解に寄与する。
論文 参考訳(メタデータ) (2025-03-10T13:37:36Z) - Multi-agent cooperation through learning-aware policy gradients [53.63948041506278]
利己的な個人はしばしば協力に失敗し、マルチエージェント学習の根本的な課題を提起する。
本稿では,学習型強化学習のための,偏見のない高導出性ポリシー勾配アルゴリズムを提案する。
我々は, 受刑者のジレンマから, 自己関心のある学習エージェントの間でどのように, いつ, 協力関係が生じるかの新たな説明を得た。
論文 参考訳(メタデータ) (2024-10-24T10:48:42Z) - Human-Robot Mutual Learning through Affective-Linguistic Interaction and Differential Outcomes Training [Pre-Print] [0.3811184252495269]
本研究では,感情言語コミュニケーションが人間ロボットの文脈における相互学習にどのように影響するかを検証する。
児童介護のダイナミックスからインスピレーションを得て、私たちの人間とロボットのインタラクションのセットアップは、内部的、ホメオスタティックに制御されたニーズのコミュニケーション方法を学ぶための(シミュレートされた)ロボットで構成されています。
論文 参考訳(メタデータ) (2024-07-01T13:35:08Z) - Multi-Agent, Human-Agent and Beyond: A Survey on Cooperation in Social Dilemmas [15.785674974107204]
社会ジレンマにおける協力の研究は、長年、様々な分野の基本的なトピックであった。
人工知能の最近の進歩は、この分野を大きく変えた。
この調査は、AIの交差点における3つの重要な領域と、社会的ジレンマにおける協力について調査する。
論文 参考訳(メタデータ) (2024-02-27T07:31:30Z) - Adversarial Attacks in Cooperative AI [0.0]
多エージェント環境における単エージェント強化学習アルゴリズムは協調の育成には不十分である。
敵機械学習における最近の研究は、モデルは容易に誤った決定を下すことができることを示している。
協調AIは、以前の機械学習研究では研究されなかった新たな弱点を導入する可能性がある。
論文 参考訳(メタデータ) (2021-11-29T07:34:12Z) - Co-GAIL: Learning Diverse Strategies for Human-Robot Collaboration [51.268988527778276]
本研究では,人間とロボットの協調実験から人間とロボットの協調政策を学習する手法を提案する。
本手法は対話型学習プロセスにおけるヒューマンポリシーとロボットポリシーを協調的に最適化する。
論文 参考訳(メタデータ) (2021-08-13T03:14:43Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [65.60507052509406]
本ワークショップの目的は,学界や産業の研究者に対して,人間とロボットの関係の学際性と学際性について議論する機会を提供することである。
論文 参考訳(メタデータ) (2021-03-23T16:52:12Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。