論文の概要: More Victories, Less Cooperation: Assessing Cicero's Diplomacy Play
- arxiv url: http://arxiv.org/abs/2406.04643v1
- Date: Fri, 7 Jun 2024 05:03:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 15:29:23.641762
- Title: More Victories, Less Cooperation: Assessing Cicero's Diplomacy Play
- Title(参考訳): Ciceroの外交戦略を評価する: 勝利と協力の欠如
- Authors: Wichayaporn Wongkamjan, Feng Gu, Yanze Wang, Ulf Hermjakob, Jonathan May, Brandon M. Stewart, Jonathan K. Kummerfeld, Denis Peskoff, Jordan Lee Boyd-Graber,
- Abstract要約: この研究は、シケロがコミュニケーションで成功する程度を理解することを目的としている。
我々は、人間とCiceroで2ダースものゲームを実行し、200時間以上の人間プレイヤーの競争を繰り広げた。
AIは人間のプレイヤーを常に上回ることができるが、AIとヒューマンのコミュニケーションは、騙しや説得が難しいため、依然として制限されている。
- 参考スコア(独自算出の注目度): 28.004172388400132
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The boardgame Diplomacy is a challenging setting for communicative and cooperative artificial intelligence. The most prominent communicative Diplomacy AI, Cicero, has excellent strategic abilities, exceeding human players. However, the best Diplomacy players master communication, not just tactics, which is why the game has received attention as an AI challenge. This work seeks to understand the degree to which Cicero succeeds at communication. First, we annotate in-game communication with abstract meaning representation to separate in-game tactics from general language. Second, we run two dozen games with humans and Cicero, totaling over 200 human-player hours of competition. While AI can consistently outplay human players, AI-Human communication is still limited because of AI's difficulty with deception and persuasion. This shows that Cicero relies on strategy and has not yet reached the full promise of communicative and cooperative AI.
- Abstract(参考訳): ボードゲーム外交は、コミュニケーションと協調的な人工知能にとって困難な状況である。
最も顕著な通信外交AIであるCiceroは、優れた戦略能力を持ち、人間のプレイヤーを超越している。
しかし、最高の外交プレーヤーは、戦術だけでなくコミュニケーションをマスターしているため、ゲームがAIチャレンジとして注目されている。
この研究は、シケロがコミュニケーションで成功する程度を理解することを目的としている。
まず,ゲーム内コミュニケーションを抽象的な意味表現とアノテートすることで,ゲーム内戦術を汎用言語から分離する。
第2に,人間とCiceroで2ダース以上のゲームを実行しています。
AIは人間のプレイヤーを常に上回ることができるが、AIとヒューマンのコミュニケーションは、騙しや説得が難しいため、依然として制限されている。
これは、Ciceroが戦略に依存しており、コミュニケーションとコラボレーティブAIの完全な約束に到達していないことを示している。
関連論文リスト
- Prompting Fairness: Artificial Intelligence as Game Players [0.0]
公正さを測定するための実用的ゲームは、社会科学で何十年にもわたって研究されてきた。
独裁者のゲームの101ラウンド以上で、私はAIはそれに依存する公平さの強い感覚を持っていると結論付けます。
AIが人間と同じように不平等回避を経験する証拠があるかもしれない。
論文 参考訳(メタデータ) (2024-02-08T16:24:40Z) - CivRealm: A Learning and Reasoning Odyssey in Civilization for
Decision-Making Agents [63.79739920174535]
文明ゲームに触発された環境であるCivRealmを紹介する。
CivRealmは、意思決定エージェントにとってユニークな学習と推論の課題である。
論文 参考訳(メタデータ) (2024-01-19T09:14:11Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Adversarial Policies Beat Superhuman Go AIs [54.15639517188804]
我々は,現在最先端の囲碁AIシステムであるKataGoを,敵の政策を訓練することによって攻撃する。
敵は囲碁を上手に弾くことで勝てない。かたごを騙して真剣な失敗を犯す。
我々の結果は、超人的AIシステムでさえ、驚くほどの障害モードを持っていることを実証している。
論文 参考訳(メタデータ) (2022-11-01T03:13:20Z) - Mastering the Game of No-Press Diplomacy via Human-Regularized
Reinforcement Learning and Planning [95.78031053296513]
ノープレス外交(No-press Diplomacy)は、協力と競争の両方を含む複雑な戦略ゲームである。
我々は、人間の模倣学習ポリシーに対する報酬最大化ポリシーを規則化する、DiL-piKLと呼ばれる計画アルゴリズムを導入する。
RL-DiL-piKLと呼ばれる自己再生強化学習アルゴリズムに拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T14:47:35Z) - The NPC AI of \textit{The Last of Us}: A case study [0.0]
The Last of Us』(ラスト・オブ・ウズ)は、ステルス、コンパニオン、戦略に焦点を当てたゲームである。
ゲームには、感染した、人間の敵、バディAIの3つの主要なNPCがある。
このケーススタディでは、これらのNPCのためのAIを作成するための開発者の前にある課題と、それらを解決するために使用したAI技術について話します。
論文 参考訳(メタデータ) (2022-07-01T23:10:40Z) - No-Press Diplomacy from Scratch [26.36204634856853]
超人的なアクション空間を持つゲームにおけるアクション探索と平衡近似のアルゴリズムについて述べる。
エージェントであるDORAをスクラッチからトレーニングし、人気のある2人プレイの外交版を作成し、超人的なパフォーマンスを実現することを示す。
我々は、我々の手法をフルスケールのノープレッシャー外交に拡張し、初めて人間データなしでエージェントをゼロから訓練する。
論文 参考訳(メタデータ) (2021-10-06T17:12:50Z) - Human-Level Performance in No-Press Diplomacy via Equilibrium Search [29.858369754530905]
本稿では,人間のデータに対する教師あり学習と,後悔の最小化による一段階のルックアヘッド探索を組み合わせた非抑圧型外交のエージェントについて述べる。
我々のエージェントは、過去の非プレス外交ボットのパフォーマンスを大きく上回っており、専門家の人間には説明不能であり、人気のある外交ウェブサイトで匿名ゲームを行う際には、人間のプレイヤーの上位2%にランクインしている。
論文 参考訳(メタデータ) (2020-10-06T01:28:34Z) - Suphx: Mastering Mahjong with Deep Reinforcement Learning [114.68233321904623]
我々は、新たに導入されたいくつかの技術を用いた深層強化学習に基づいて、Suphxという名のマフジョンのためのAIを設計する。
Suphxは、安定したランクの点で、ほとんどのトップの人間プレイヤーよりも強いパフォーマンスを示している。
コンピュータプログラムがマヒョンで最上位の人間プレイヤーを上回るのは、これが初めてである。
論文 参考訳(メタデータ) (2020-03-30T16:18:16Z) - Learning to Resolve Alliance Dilemmas in Many-Player Zero-Sum Games [22.38765498549914]
我々は多人数ゼロサムゲームの体系的な研究が人工知能研究の重要な要素であると主張している。
対称ゼロサム行列ゲームを用いて、アライアンス形成が社会的ジレンマと見なされることを示す。
我々は、強化学習をピアツーピア契約機構で強化し、アライアンスを発見・実施する方法を示す。
論文 参考訳(メタデータ) (2020-02-27T10:32:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。