論文の概要: The art of compensation: how hybrid teams solve collective risk dilemmas
- arxiv url: http://arxiv.org/abs/2205.06632v1
- Date: Fri, 13 May 2022 13:23:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:51:38.815996
- Title: The art of compensation: how hybrid teams solve collective risk dilemmas
- Title(参考訳): the art of compensation: ハイブリッドチームが集団的リスクジレンマを解決する方法
- Authors: In\^es Terrucha, Elias Fern\'andez Domingos, Francisco C. Santos,
Pieter Simoens and Tom Lenaerts
- Abstract要約: 適応剤と固定行動剤を併用したハイブリッド集団における協調の進化的ダイナミクスについて検討した。
後者の振る舞いを補うために,まず,行動に適応することを学ぶ方法を示す。
- 参考スコア(独自算出の注目度): 6.081979963786028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is widely known how the human ability to cooperate has influenced the
thriving of our species. However, as we move towards a hybrid human-machine
future, it is still unclear how the introduction of AI agents in our social
interactions will affect this cooperative capacity. Within the context of the
one-shot collective risk dilemma, where enough members of a group must
cooperate in order to avoid a collective disaster, we study the evolutionary
dynamics of cooperation in a hybrid population made of both adaptive and
fixed-behavior agents. Specifically, we show how the first learn to adapt their
behavior to compensate for the behavior of the latter. The less the
(artificially) fixed agents cooperate, the more the adaptive population is
motivated to cooperate, and vice-versa, especially when the risk is higher. By
pinpointing how adaptive agents avoid their share of costly cooperation if the
fixed-behavior agents implement a cooperative policy, our work hints towards an
unbalanced hybrid world. On one hand, this means that introducing cooperative
AI agents within our society might unburden human efforts. Nevertheless, it is
important to note that costless artificial cooperation might not be realistic,
and more than deploying AI systems that carry the cooperative effort, we must
focus on mechanisms that nudge shared cooperation among all members in the
hybrid system.
- Abstract(参考訳): 人類が協力する能力が我々の種の繁栄にどのように影響したかは広く知られている。
しかし、人間と機械のハイブリッド化が進むにつれ、私たちの社会的相互作用におけるAIエージェントの導入がこの協調能力にどのように影響するかは、まだ不明である。
集団的災害を避けるためにグループの十分なメンバーが協力しなければならないワンショット集団的リスクジレンマの文脈において,適応型と固定型の両方のエージェントからなるハイブリッド集団における協調の進化ダイナミクスを考察する。
具体的には、まず最初に、後者の振る舞いを補うために行動に適応する方法を示す。
特にリスクが高い場合は、(技術的に)固定されたエージェントが協力する機会が少なくなるほど、適応的な人口が協力するモチベーションが高まる。
固定行動エージェントが協調政策を実行する場合、適応エージェントが費用対効果の共有を避ける方法を示すことにより、本研究はバランスの取れないハイブリッド世界に向けて示唆する。
これは、我々の社会に協力的なAIエージェントを導入することが、人間の努力を損なう可能性があることを意味している。
それでも、コストレスな人工協調は現実的ではなく、協調作業を行うAIシステムを展開することよりも、ハイブリッドシステム内のすべてのメンバ間で協力を共有するメカニズムに注力する必要があることに注意する必要がある。
関連論文リスト
- Learning to Balance Altruism and Self-interest Based on Empathy in Mixed-Motive Games [47.8980880888222]
マルチエージェントのシナリオは、しばしば混合モチベーションを伴い、潜在的な搾取に対する自己保護が可能な利他的エージェントを要求する。
共感に基づくアルトリズムと自己利益のバランスをとるためのLASE学習を提案する。
LASEはその報酬の一部を共同プレイヤにギフトとして割り当て、このアロケーションは社会的関係に基づいて動的に適応する。
論文 参考訳(メタデータ) (2024-10-10T12:30:56Z) - Emergent Cooperation under Uncertain Incentive Alignment [7.906156032228933]
頻繁な出会いを特徴とするシナリオにおける強化学習エージェント間の協力関係について検討する。
本研究では,複合モチベーション環境における協調を促進するために文献で提案されている評価や本質的な報酬などのメカニズムの効果について検討する。
論文 参考訳(メタデータ) (2024-01-23T10:55:54Z) - Deconstructing Cooperation and Ostracism via Multi-Agent Reinforcement
Learning [3.3751859064985483]
一方のエージェントが常に協力している場合でも,ネットワークのリワイアリングが相互協力を促進することを示す。
また、オストラシズムだけでは協力を浮かび上がらせるには不十分であることも分かっています。
本研究は,協力の出現に必要な条件とメカニズムについて考察した。
論文 参考訳(メタデータ) (2023-10-06T23:18:55Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Investigating the Impact of Direct Punishment on the Emergence of Cooperation in Multi-Agent Reinforcement Learning Systems [2.4555276449137042]
協力の問題は、人間社会の中で一様である。
AIの利用が社会全体に広まるにつれ、社会的にインテリジェントなエージェントの必要性がますます明白になりつつある。
本稿では, 直接罰, 第三者罰, パートナー選択, 評判に関連する行動と学習のダイナミクスを包括的に分析し, 評価する。
論文 参考訳(メタデータ) (2023-01-19T19:33:54Z) - PECAN: Leveraging Policy Ensemble for Context-Aware Zero-Shot Human-AI
Coordination [52.991211077362586]
本研究では,集団におけるパートナーの多様性を高めるための政策アンサンブル手法を提案する。
そこで我々は,egoエージェントがパートナーの潜在的ポリシープリミティブを分析し,識別するためのコンテキスト認識手法を開発した。
このようにして、エゴエージェントは多様なパートナーとの共同作業において、より普遍的な協調行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-01-16T12:14:58Z) - Learning Collective Action under Risk Diversity [68.88688248278102]
集団的リスクジレンマを演じることを学ぶエージェントのグループにおけるリスク多様性の結果について検討する。
リスクの多様性は、全体的な協力を著しく減らし、全体的な目標達成を妨げることを示す。
この結果から,エージェント間のリスク認識の整合性や新たな学習技術開発の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2022-01-30T18:21:21Z) - Normative Disagreement as a Challenge for Cooperative AI [56.34005280792013]
典型的な協調誘導学習アルゴリズムは、問題の解決に協力することができないと論じる。
我々は,ノルム適応政策のクラスを開発し,これらが協調性を著しく向上させることを示す実験を行った。
論文 参考訳(メタデータ) (2021-11-27T11:37:42Z) - Cooperation and Reputation Dynamics with Reinforcement Learning [6.219565750197311]
私達は信頼および協同を確立する方法として評判がいかに使用されるか示します。
好ましくない平衡への収束を緩和する2つのメカニズムを提案する。
この結果が進化ゲーム理論の文献とどのように関係しているかを示す。
論文 参考訳(メタデータ) (2021-02-15T12:48:56Z) - Open Problems in Cooperative AI [21.303564222227727]
研究の目的は、協力の問題の多くの側面を研究し、これらの問題を解決するためにAIを革新することである。
本研究は,マルチエージェントシステム,ゲーム理論と社会的選択,ヒューマンマシンインタラクションとアライメント,自然言語処理,ソーシャルツールとプラットフォームの構築など,現在進行中の作業を統合する。
論文 参考訳(メタデータ) (2020-12-15T21:39:50Z) - Cooperative Inverse Reinforcement Learning [64.60722062217417]
協調強化学習(CIRL)としての値アライメント問題の形式的定義を提案する。
CIRL問題は、人間とロボットの2人のエージェントによる協調的部分情報ゲームであり、どちらも人間の報酬関数に従って報酬を受けるが、ロボットは当初それが何であるかを知らない。
古典的なIRLとは対照的に、人間は孤立して最適な行動をとると仮定されるが、最適なCIRLソリューションは活発な教育、活発な学習、コミュニケーション行動などの行動を生み出す。
論文 参考訳(メタデータ) (2016-06-09T22:39:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。