論文の概要: Unbiased third-party bots lead to a tradeoff between cooperation and social payoffs
- arxiv url: http://arxiv.org/abs/2409.14975v1
- Date: Mon, 23 Sep 2024 12:50:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 15:15:39.755260
- Title: Unbiased third-party bots lead to a tradeoff between cooperation and social payoffs
- Title(参考訳): 偏見のないサードパーティのボットが協力とソーシャルペイオフのトレードオフに繋がる
- Authors: Zhixue He, Chen Shen, Lei Shi, Jun Tanimoto,
- Abstract要約: 人工知能(AI)の台頭は、より適用性と制御性の高い協調力学に影響を与える新たな機会を提供する。
我々は、不偏のボットは、よく混ざった集団の正常なプレイヤーの間で欠陥均衡をシフトできないことを示した。
構造化された集団では、不偏な行動にもかかわらず、ボットは自発的に共同作業者や欠陥者に対して異なる影響を生じさせ、協力の強化につながった。
- 参考スコア(独自算出の注目度): 2.456015170740555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rise of artificial intelligence (AI) offers new opportunities to influence cooperative dynamics with greater applicability and control. In this paper, we examine the impact of third-party bots--agents that do not directly participate in games but unbiasedly modify the payoffs of normal players engaged in prisoner's dilemma interactions--on the emergence of cooperation. Using an evolutionary simulation model, we demonstrate that unbiased bots are unable to shift the defective equilibrium among normal players in well-mixed populations. However, in structured populations, despite their unbiased actions, the bots spontaneously generate distinct impacts on cooperators and defectors, leading to enhanced cooperation. Notably, bots that apply negative influences are more effective at promoting cooperation than those applying positive ones, as fewer bots are needed to catalyze cooperative behavior among normal players. However, as the number of bots increases, a trade-off emerges: while cooperation is maintained, overall social payoffs decline. These findings highlight the need for careful management of AI's role in social systems, as even well-intentioned bots can have unintended consequences on collective outcomes.
- Abstract(参考訳): 人工知能(AI)の台頭は、より適用性と制御性の高い協調力学に影響を与える新たな機会を提供する。
本稿では,囚人のジレンマ行為に携わる通常の選手の報酬を,直接ゲームに参加せず不公平に修正した第三者ボットが協力の出現に与える影響について検討する。
進化的シミュレーションモデルを用いて、不偏のボットは、よく混在した個体群において、正常なプレイヤー間の欠陥均衡をシフトできないことを示した。
しかし、構造的な集団では、不偏な行動にもかかわらず、ボットは自発的に共同作業者や欠陥者に対して異なる影響を生じさせ、協力の強化につながった。
特に、ネガティブな影響を与えるボットは、通常のプレイヤー同士の協調行動を触媒するボットが少なくなるため、ポジティブな影響を与えるボットよりも協力を促進するのに効果的である。
しかし、ボットの数が増加するにつれて、トレードオフが出現する。
これらの知見は、社会システムにおけるAIの役割を慎重に管理する必要があること、そして、十分に意図されたボットでさえ、集合的な結果に意図しない結果をもたらす可能性があることを浮き彫りにしている。
関連論文リスト
- Promoting Cooperation in the Public Goods Game using Artificial Intelligent Agents [0.0]
計算進化モデルを用いて、AIエージェントがプレイヤーの動作を模倣した場合のみ、協調のための重要なシナジー閾値が低下することがわかった。
このことは、人間のプレイヤーを模倣するAIエージェントを設計することで、AIを活用して社会的ジレンマにおける集団的幸福を促進することができることを示唆している。
論文 参考訳(メタデータ) (2024-12-06T22:16:21Z) - Learning to Balance Altruism and Self-interest Based on Empathy in Mixed-Motive Games [47.8980880888222]
マルチエージェントのシナリオは、しばしば混合モチベーションを伴い、潜在的な搾取に対する自己保護が可能な利他的エージェントを要求する。
共感に基づくアルトリズムと自己利益のバランスをとるためのLASE学習を提案する。
LASEはその報酬の一部を共同プレイヤにギフトとして割り当て、このアロケーションは社会的関係に基づいて動的に適応する。
論文 参考訳(メタデータ) (2024-10-10T12:30:56Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - How Bad is Selfish Driving? Bounding the Inefficiency of Equilibria in
Urban Driving Games [64.71476526716668]
我々は,任意の平衡選手がプレーに同意するであろう効率について検討する。
我々は、アナーキーの価格に関する既存の境界を洗練させる保証を得る。
提案手法はオープンループ軌道に対する懸念を保証しているが,エージェントがクローズドループポリシーを採用する場合においても,効率的な平衡を観測する。
論文 参考訳(メタデータ) (2022-10-24T09:32:40Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
論文 参考訳(メタデータ) (2022-08-22T14:06:06Z) - The art of compensation: how hybrid teams solve collective risk dilemmas [6.081979963786028]
適応剤と固定行動剤を併用したハイブリッド集団における協調の進化的ダイナミクスについて検討した。
後者の振る舞いを補うために,まず,行動に適応することを学ぶ方法を示す。
論文 参考訳(メタデータ) (2022-05-13T13:23:42Z) - Cooperative Artificial Intelligence [0.0]
我々は,ゲーム理論と人工知能の交わりに関する研究の必要性を論じる。
本稿では,外部エージェントが人工学習者の協調を促進する方法について議論する。
また, 計画エージェントをオフにしても, 結果が一定のゲームにおいて安定であることを示す。
論文 参考訳(メタデータ) (2022-02-20T16:50:37Z) - Adversarial Attacks in Cooperative AI [0.0]
多エージェント環境における単エージェント強化学習アルゴリズムは協調の育成には不十分である。
敵機械学習における最近の研究は、モデルは容易に誤った決定を下すことができることを示している。
協調AIは、以前の機械学習研究では研究されなかった新たな弱点を導入する可能性がある。
論文 参考訳(メタデータ) (2021-11-29T07:34:12Z) - Adversarial Socialbot Learning via Multi-Agent Deep Hierarchical
Reinforcement Learning [31.33996447671789]
本稿では、強化学習(RL)などの計算学習機構を利用して、検出を回避しつつ、ソーシャルボットの影響を最大化することができることを示す。
提案するポリシネットワークは,膨大な合成グラフを用いてトレーニングし,目に見えない実生活グラフのベースラインよりも優れた一般化を行う。
これにより,本手法は実環境に展開する際の現実的な敵攻撃となる。
論文 参考訳(メタデータ) (2021-10-20T16:49:26Z) - Cooperative Control of Mobile Robots with Stackelberg Learning [63.99843063704676]
マルチロボットの協力は、エージェントが共通の目標に整合性を持たなければならない。
協調制御におけるスタックルバーグ学習という手法を提案する。
論文 参考訳(メタデータ) (2020-08-03T07:21:51Z) - Cooperative Inverse Reinforcement Learning [64.60722062217417]
協調強化学習(CIRL)としての値アライメント問題の形式的定義を提案する。
CIRL問題は、人間とロボットの2人のエージェントによる協調的部分情報ゲームであり、どちらも人間の報酬関数に従って報酬を受けるが、ロボットは当初それが何であるかを知らない。
古典的なIRLとは対照的に、人間は孤立して最適な行動をとると仮定されるが、最適なCIRLソリューションは活発な教育、活発な学習、コミュニケーション行動などの行動を生み出す。
論文 参考訳(メタデータ) (2016-06-09T22:39:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。