論文の概要: Prompting Fairness: Artificial Intelligence as Game Players
- arxiv url: http://arxiv.org/abs/2402.05786v1
- Date: Thu, 8 Feb 2024 16:24:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 14:14:58.447141
- Title: Prompting Fairness: Artificial Intelligence as Game Players
- Title(参考訳): Prompting Fairness: ゲームプレイヤーとしての人工知能
- Authors: Jazmia Henry
- Abstract要約: 公正さを測定するための実用的ゲームは、社会科学で何十年にもわたって研究されてきた。
独裁者のゲームの101ラウンド以上で、私はAIはそれに依存する公平さの強い感覚を持っていると結論付けます。
AIが人間と同じように不平等回避を経験する証拠があるかもしれない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Utilitarian games such as dictator games to measure fairness have been
studied in the social sciences for decades. These games have given us insight
into not only how humans view fairness but also in what conditions the
frequency of fairness, altruism and greed increase or decrease. While these
games have traditionally been focused on humans, the rise of AI gives us the
ability to study how these models play these games. AI is becoming a constant
in human interaction and examining how these models portray fairness in game
play can give us some insight into how AI makes decisions. Over 101 rounds of
the dictator game, I conclude that AI has a strong sense of fairness that is
dependant of it it deems the person it is playing with as trustworthy, framing
has a strong effect on how much AI gives a recipient when designated the
trustee, and there may be evidence that AI experiences inequality aversion just
as humans.
- Abstract(参考訳): 公正度を測定する独裁者ゲームのようなユーティリティゲームは、社会科学において何十年にもわたって研究されてきた。
これらのゲームは、人間が公正さをどのように見ているかだけでなく、公正さ、利他主義、欲求の頻度が増加または減少する状況についても洞察を与えてくれました。
これらのゲームは伝統的に人間に焦点を当ててきたが、AIの台頭により、これらのモデルがどのようにゲームをプレイするかを研究することができる。
AIは人間のインタラクションにおいて常に存在しており、これらのモデルがどのようにゲームプレイの公平性を表現しているかを調べることで、AIが意思決定を行う方法に関する洞察を得ることができます。
独裁者のゲームの101ラウンド以上において、私はAIは信頼に値する人物とみなすような公正さの強い感覚を持っていると結論付け、フレーミングはAIが理事に指名されたときの受取人にどれだけの影響力を与えるかに強く影響し、AIが人間と同じように不平等の回避を経験しているという証拠があるかもしれない。
関連論文リスト
- On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - The Impacts of AI Avatar Appearance and Disclosure on User Motivation [0.0]
本研究では,仮想インタラクションにおけるAI特徴がユーザのモチベーションに与える影響について検討する。
探索問題のみ, あるいはAIコンパニオンを用いて72,500人以上の参加者を対象に, ゲームベースの実験を行った。
論文 参考訳(メタデータ) (2024-07-31T10:48:55Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Explaining How a Neural Network Play the Go Game and Let People Learn [26.192580802652742]
AIモデルは、Goのゲームで人間のプレイヤーを追い越した。
AIモデルは、人間のプレイヤーを超えて、Goゲームに関する新しい知識をエンコードしたと広く信じられている。
論文 参考訳(メタデータ) (2023-10-15T13:57:50Z) - DanZero: Mastering GuanDan Game with Reinforcement Learning [121.93690719186412]
カードゲームAIは、人工知能の研究において常にホットな話題となっている。
本稿では,より複雑なカードゲームであるGuanDanのためのAIプログラムの開発に専念する。
そこで我々は,強化学習技術を用いたGuanDanのためのAIプログラムDanZeroを提案する。
論文 参考訳(メタデータ) (2022-10-31T06:29:08Z) - AI in Games: Techniques, Challenges and Opportunities [40.86375378643978]
Libratus、OpenAI Five、AlphaStarといった様々なゲームAIシステムが開発され、プロの人間プレイヤーに勝っている。
本稿では,最近成功したゲームAI,ボードゲームAI,カードゲームAI,ファーストパーソンシューティングゲームAI,リアルタイム戦略ゲームAIについて調査する。
論文 参考訳(メタデータ) (2021-11-15T09:35:53Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - "Weak AI" is Likely to Never Become "Strong AI", So What is its Greatest
Value for us? [4.497097230665825]
多くの研究者は、ここ数十年でAIがほとんど進歩していないと主張している。
著者は、AIに関する議論が存在する理由を説明します。(2)「弱いAI」と「強いAI」と呼ばれる2つのAI研究パラダイムを区別します。
論文 参考訳(メタデータ) (2021-03-29T02:57:48Z) - Suphx: Mastering Mahjong with Deep Reinforcement Learning [114.68233321904623]
我々は、新たに導入されたいくつかの技術を用いた深層強化学習に基づいて、Suphxという名のマフジョンのためのAIを設計する。
Suphxは、安定したランクの点で、ほとんどのトップの人間プレイヤーよりも強いパフォーマンスを示している。
コンピュータプログラムがマヒョンで最上位の人間プレイヤーを上回るのは、これが初めてである。
論文 参考訳(メタデータ) (2020-03-30T16:18:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。