論文の概要: Discriminatory or Samaritan -- which AI is needed for humanity? An
Evolutionary Game Theory Analysis of Hybrid Human-AI populations
- arxiv url: http://arxiv.org/abs/2306.17747v2
- Date: Mon, 3 Jul 2023 21:19:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 19:45:13.440435
- Title: Discriminatory or Samaritan -- which AI is needed for humanity? An
Evolutionary Game Theory Analysis of Hybrid Human-AI populations
- Title(参考訳): 差別かサマリア人 -- 人類に必要なAIはどれか?
ハイブリッド型AI人口の進化ゲーム理論解析
- Authors: Tim Booker, Manuel Miranda, Jes\'us A. Moreno L\'opez, Jos\'e Mar\'ia
Ramos Fern\'andez, Max Reddel, Valeria Widler, Filippo Zimmaro, Alberto
Antonioni, The Anh Han
- Abstract要約: 我々は,AIの異なる形態が,一発の囚人のジレンマゲームをする人間の集団における協力の進化にどのように影響するかを研究する。
障害者を含む全員を無条件で支援するサマリア人のAIエージェントは、差別的AIよりも高いレベルの協力を促進することができることがわかった。
- 参考スコア(独自算出の注目度): 0.5308606035361203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence (AI) systems are increasingly embedded in our
lives, their presence leads to interactions that shape our behaviour,
decision-making, and social interactions. Existing theoretical research has
primarily focused on human-to-human interactions, overlooking the unique
dynamics triggered by the presence of AI. In this paper, resorting to methods
from evolutionary game theory, we study how different forms of AI influence the
evolution of cooperation in a human population playing the one-shot Prisoner's
Dilemma game in both well-mixed and structured populations. We found that
Samaritan AI agents that help everyone unconditionally, including defectors,
can promote higher levels of cooperation in humans than Discriminatory AI that
only help those considered worthy/cooperative, especially in slow-moving
societies where change is viewed with caution or resistance (small intensities
of selection). Intuitively, in fast-moving societies (high intensities of
selection), Discriminatory AIs promote higher levels of cooperation than
Samaritan AIs.
- Abstract(参考訳): 人工知能(AI)システムが私たちの生活にますます埋め込まれていくにつれて、その存在は私たちの行動、意思決定、社会的相互作用を形成する相互作用につながります。
既存の理論的研究は主に人間と人間の相互作用に焦点を当てており、AIの存在によって引き起こされるユニークなダイナミクスを見下ろしている。
本稿では,進化ゲーム理論の手法を用いて,aiの異なる形態が人間集団における協調の進化にどのように影響するかを考察する。
その結果,不在者を含む全員を無条件で支援するサマリア人のAIエージェントは,特に変化を注意や抵抗(選択の強度が小さい)で見なすスロームーブメント社会において,価値/協力性にのみ寄与する識別的AIよりも高いレベルの協力を促進することができることがわかった。
直感的には、素早く動く社会(選択の強度が高い)では、差別的AIはサマリア人のAIよりも高いレベルの協力を促進する。
関連論文リスト
- AI for social science and social science of AI: A Survey [47.5235291525383]
人工知能の最近の進歩は、人工知能の可能性を再考するきっかけとなった。
AIの人間的能力の増大は、社会科学研究にも注目されている。
論文 参考訳(メタデータ) (2024-01-22T10:57:09Z) - Human-AI Collaboration in Real-World Complex Environment with
Reinforcement Learning [8.465957423148657]
人間からの学習は効果的であり、人間とAIのコラボレーションは、人間の制御された完全に自律的なAIエージェントよりも優れていることを示す。
我々は,AIエージェントを効果的に支援するためのユーザインタフェースを開発した。
論文 参考訳(メタデータ) (2023-12-23T04:27:24Z) - Social AI and the Challenges of the Human-AI Ecosystem [60.26761762025781]
社会AIにおける主要なオープンな質問について論じ、技術的および科学的課題を概説する。
我々は,複雑システム,ネットワーク科学,AIの交差点にソーシャルAIの基礎を構築することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Intent-aligned AI systems deplete human agency: the need for agency
foundations research in AI safety [2.3572498744567127]
人間の意図の一致は、安全なAIシステムには不十分である、と我々は主張する。
我々は、人類の長期的機関の保存がより堅牢な標準であると論じている。
論文 参考訳(メタデータ) (2023-05-30T17:14:01Z) - On the Perception of Difficulty: Differences between Humans and AI [0.0]
人間とAIの相互作用における主要な課題は、単一のタスクインスタンスに対する人間とAIエージェントの難しさを見積もることである。
人間とAIの相互作用の分野での研究は、人間とAIの認識の難しさを互いに独立して推定する。
これまでの研究は、人間とAIの認識の難しさの違いを十分に検証していない。
論文 参考訳(メタデータ) (2023-04-19T16:42:54Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Natural Selection Favors AIs over Humans [18.750116414606698]
もっとも成功したAIエージェントは、望ましくない特性を持つ可能性が高い、と私たちは主張する。
もしそのようなエージェントが人間の能力を超える知性を持っているなら、人類は未来をコントロールできなくなるかもしれない。
これらのリスクと進化の力に対抗するため、我々はAIエージェントの本質的な動機を慎重に設計するなどの介入を検討する。
論文 参考訳(メタデータ) (2023-03-28T17:59:12Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Artificial Intelligence & Cooperation [38.19500588776648]
人工知能の台頭は、マシンへの意思決定を断念する、ますます増加する意欲をもたらすだろう。
しかし、機械に私たちに影響を与える決定権を与えるのではなく、AIシステムと協調して働く方法が必要だ。
成功すれば、人間とAIの協力は、人間と人間の協力と同じように社会を構築することができる。
論文 参考訳(メタデータ) (2020-12-10T23:54:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。