論文の概要: Discriminatory or Samaritan -- which AI is needed for humanity? An
Evolutionary Game Theory Analysis of Hybrid Human-AI populations
- arxiv url: http://arxiv.org/abs/2306.17747v2
- Date: Mon, 3 Jul 2023 21:19:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 19:45:13.440435
- Title: Discriminatory or Samaritan -- which AI is needed for humanity? An
Evolutionary Game Theory Analysis of Hybrid Human-AI populations
- Title(参考訳): 差別かサマリア人 -- 人類に必要なAIはどれか?
ハイブリッド型AI人口の進化ゲーム理論解析
- Authors: Tim Booker, Manuel Miranda, Jes\'us A. Moreno L\'opez, Jos\'e Mar\'ia
Ramos Fern\'andez, Max Reddel, Valeria Widler, Filippo Zimmaro, Alberto
Antonioni, The Anh Han
- Abstract要約: 我々は,AIの異なる形態が,一発の囚人のジレンマゲームをする人間の集団における協力の進化にどのように影響するかを研究する。
障害者を含む全員を無条件で支援するサマリア人のAIエージェントは、差別的AIよりも高いレベルの協力を促進することができることがわかった。
- 参考スコア(独自算出の注目度): 0.5308606035361203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence (AI) systems are increasingly embedded in our
lives, their presence leads to interactions that shape our behaviour,
decision-making, and social interactions. Existing theoretical research has
primarily focused on human-to-human interactions, overlooking the unique
dynamics triggered by the presence of AI. In this paper, resorting to methods
from evolutionary game theory, we study how different forms of AI influence the
evolution of cooperation in a human population playing the one-shot Prisoner's
Dilemma game in both well-mixed and structured populations. We found that
Samaritan AI agents that help everyone unconditionally, including defectors,
can promote higher levels of cooperation in humans than Discriminatory AI that
only help those considered worthy/cooperative, especially in slow-moving
societies where change is viewed with caution or resistance (small intensities
of selection). Intuitively, in fast-moving societies (high intensities of
selection), Discriminatory AIs promote higher levels of cooperation than
Samaritan AIs.
- Abstract(参考訳): 人工知能(AI)システムが私たちの生活にますます埋め込まれていくにつれて、その存在は私たちの行動、意思決定、社会的相互作用を形成する相互作用につながります。
既存の理論的研究は主に人間と人間の相互作用に焦点を当てており、AIの存在によって引き起こされるユニークなダイナミクスを見下ろしている。
本稿では,進化ゲーム理論の手法を用いて,aiの異なる形態が人間集団における協調の進化にどのように影響するかを考察する。
その結果,不在者を含む全員を無条件で支援するサマリア人のAIエージェントは,特に変化を注意や抵抗(選択の強度が小さい)で見なすスロームーブメント社会において,価値/協力性にのみ寄与する識別的AIよりも高いレベルの協力を促進することができることがわかった。
直感的には、素早く動く社会(選択の強度が高い)では、差別的AIはサマリア人のAIよりも高いレベルの協力を促進する。
関連論文リスト
- Problem Solving Through Human-AI Preference-Based Cooperation [74.39233146428492]
我々は,人間-AI共同構築フレームワークであるHAI-Co2を提案する。
我々は、HAI-Co2を形式化し、それが直面する困難なオープンリサーチ問題について議論する。
本稿では,HAI-Co2のケーススタディと,モノリシックな生成型AIモデルとの比較による有効性を示す。
論文 参考訳(メタデータ) (2024-08-14T11:06:57Z) - Rolling in the deep of cognitive and AI biases [1.556153237434314]
我々は、AIが設計、開発、デプロイされる状況とは切り離せない社会技術システムとして理解する必要があると論じる。
我々は、人間の認知バイアスがAIフェアネスの概観の中核となる急進的な新しい方法論に従うことで、この問題に対処する。
我々は、人間にAIバイアスを正当化する新しいマッピングを導入し、関連する公正度と相互依存を検出する。
論文 参考訳(メタデータ) (2024-07-30T21:34:04Z) - Explainable Human-AI Interaction: A Planning Perspective [32.477369282996385]
AIシステムは、ループ内の人間に説明可能である必要がある。
我々は、AIエージェントがメンタルモデルを使用して人間の期待に沿うか、あるいは説明的コミュニケーションを通じて期待を変更する方法について論じる。
本書の主な焦点は、協調的なシナリオであるが、同じ精神モデルが難読化や偽造にどのように使用できるかを指摘したい。
論文 参考訳(メタデータ) (2024-05-19T22:22:21Z) - AI-enhanced Collective Intelligence [2.5063318977668465]
人間とAIは、人間またはAIの集団的知性を単独で超越できる補完的能力を持っている。
このレビューでは、複雑なネットワーク科学からの視点を取り入れ、人間-AI集団知能の多層表現を概念化する。
エージェントの多様性と相互作用がシステムの集合知にどのように影響するかを探求し、AIによって強化された集合知の実例を分析する。
論文 参考訳(メタデータ) (2024-03-15T16:11:15Z) - AI for social science and social science of AI: A Survey [47.5235291525383]
人工知能の最近の進歩は、人工知能の可能性を再考するきっかけとなった。
AIの人間的能力の増大は、社会科学研究にも注目されている。
論文 参考訳(メタデータ) (2024-01-22T10:57:09Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - On the Perception of Difficulty: Differences between Humans and AI [0.0]
人間とAIの相互作用における主要な課題は、単一のタスクインスタンスに対する人間とAIエージェントの難しさを見積もることである。
人間とAIの相互作用の分野での研究は、人間とAIの認識の難しさを互いに独立して推定する。
これまでの研究は、人間とAIの認識の難しさの違いを十分に検証していない。
論文 参考訳(メタデータ) (2023-04-19T16:42:54Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Natural Selection Favors AIs over Humans [18.750116414606698]
もっとも成功したAIエージェントは、望ましくない特性を持つ可能性が高い、と私たちは主張する。
もしそのようなエージェントが人間の能力を超える知性を持っているなら、人類は未来をコントロールできなくなるかもしれない。
これらのリスクと進化の力に対抗するため、我々はAIエージェントの本質的な動機を慎重に設計するなどの介入を検討する。
論文 参考訳(メタデータ) (2023-03-28T17:59:12Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。