論文の概要: Personalized Help for Optimizing Low-Skilled Users' Strategy
- arxiv url: http://arxiv.org/abs/2411.09109v1
- Date: Thu, 14 Nov 2024 00:52:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:22:31.364052
- Title: Personalized Help for Optimizing Low-Skilled Users' Strategy
- Title(参考訳): 低スキルユーザ戦略を最適化するためのパーソナライズドヘルプ
- Authors: Feng Gu, Wichayaporn Wongkamjan, Jordan Lee Boyd-Graber, Jonathan K. Kummerfeld, Denis Peskoff, Jonathan May,
- Abstract要約: 我々は、自然言語エージェントであるCICEROを拡張し、プレイヤーの意図に基づいて移動とメッセージのアドバイスを生成する。
初心者や経験豊富なプレイヤーによる12の外交ゲームでは、様々なアドバイス設定があり、生成されたアドバイスのいくつかが有益であることを示している。
- 参考スコア(独自算出の注目度): 32.23347287304059
- License:
- Abstract: AIs can beat humans in game environments; however, how helpful those agents are to human remains understudied. We augment CICERO, a natural language agent that demonstrates superhuman performance in Diplomacy, to generate both move and message advice based on player intentions. A dozen Diplomacy games with novice and experienced players, with varying advice settings, show that some of the generated advice is beneficial. It helps novices compete with experienced players and in some instances even surpass them. The mere presence of advice can be advantageous, even if players do not follow it.
- Abstract(参考訳): AIはゲーム環境で人間を倒すことができるが、これらのエージェントがいかに人間に役に立つかはまだ研究されていない。
我々は、外交における超人的パフォーマンスを示す自然言語エージェントCICEROを拡張し、プレイヤーの意図に基づいた移動とメッセージのアドバイスを生成する。
初心者や経験豊富なプレイヤーによる12の外交ゲームでは、様々なアドバイス設定があり、生成されたアドバイスのいくつかが有益であることを示している。
初心者が経験豊富なプレイヤーと競い合うのに役立つ。
たとえプレイヤーがそれに従わなくても、単なるアドバイスの存在は有利である。
関連論文リスト
- Evaluating the Effects of AI Directors for Quest Selection [2.3941497253612085]
我々は、プレイヤーの好みに合わせてプレイヤー体験をパーソナライズする、ゲームを動的に修正できるシステムであるAIディレクターに焦点を当てる。
その結果,非ランダムなAIディレクタは,ランダムなAIディレクタよりも優れたプレイヤエクスペリエンスを提供することがわかった。
論文 参考訳(メタデータ) (2024-09-30T18:16:38Z) - Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - More Victories, Less Cooperation: Assessing Cicero's Diplomacy Play [28.004172388400132]
この研究は、シケロがコミュニケーションで成功する程度を理解することを目的としている。
我々は、人間とCiceroで2ダースものゲームを実行し、200時間以上の人間プレイヤーの競争を繰り広げた。
AIは人間のプレイヤーを常に上回ることができるが、AIとヒューマンのコミュニケーションは、騙しや説得が難しいため、依然として制限されている。
論文 参考訳(メタデータ) (2024-06-07T05:03:44Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - Adversarial Policies Beat Superhuman Go AIs [54.15639517188804]
我々は,現在最先端の囲碁AIシステムであるKataGoを,敵の政策を訓練することによって攻撃する。
敵は囲碁を上手に弾くことで勝てない。かたごを騙して真剣な失敗を犯す。
我々の結果は、超人的AIシステムでさえ、驚くほどの障害モードを持っていることを実証している。
論文 参考訳(メタデータ) (2022-11-01T03:13:20Z) - Mastering the Game of No-Press Diplomacy via Human-Regularized
Reinforcement Learning and Planning [95.78031053296513]
ノープレス外交(No-press Diplomacy)は、協力と競争の両方を含む複雑な戦略ゲームである。
我々は、人間の模倣学習ポリシーに対する報酬最大化ポリシーを規則化する、DiL-piKLと呼ばれる計画アルゴリズムを導入する。
RL-DiL-piKLと呼ばれる自己再生強化学習アルゴリズムに拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T14:47:35Z) - Generative Personas That Behave and Experience Like Humans [3.611888922173257]
生成AIエージェントは、ルール、報酬、または人間のデモンストレーションとして表される特定の演奏行動の模倣を試みる。
我々は、行動手続き的ペルソナの概念をプレイヤー体験に適応させるよう拡張し、プレイヤーが人間のように行動し、経験できる生成エージェントを調べる。
その結果, 生成したエージェントは, 模倣を意図した人物のプレイスタイルや経験的反応を呈することが示唆された。
論文 参考訳(メタデータ) (2022-08-26T12:04:53Z) - The corruptive force of AI-generated advice [0.0]
AIによるアドバイスが人を傷つけるかどうかをテストします。
また、AIの存在に関する透明性が潜在的な害を軽減するかどうかをテストします。
結果、AIの腐敗力は人間と同じくらい強いことが判明」
論文 参考訳(メタデータ) (2021-02-15T13:15:12Z) - Human-Level Performance in No-Press Diplomacy via Equilibrium Search [29.858369754530905]
本稿では,人間のデータに対する教師あり学習と,後悔の最小化による一段階のルックアヘッド探索を組み合わせた非抑圧型外交のエージェントについて述べる。
我々のエージェントは、過去の非プレス外交ボットのパフォーマンスを大きく上回っており、専門家の人間には説明不能であり、人気のある外交ウェブサイトで匿名ゲームを行う際には、人間のプレイヤーの上位2%にランクインしている。
論文 参考訳(メタデータ) (2020-10-06T01:28:34Z) - Efficient exploration of zero-sum stochastic games [83.28949556413717]
ゲームプレイを通じて,ゲームの記述を明示せず,託宣のみにアクセス可能な,重要で一般的なゲーム解決環境について検討する。
限られたデュレーション学習フェーズにおいて、アルゴリズムは両方のプレイヤーのアクションを制御し、ゲームを学習し、それをうまくプレイする方法を学習する。
私たちのモチベーションは、クエリされた戦略プロファイルの支払いを評価するのにコストがかかる状況において、利用可能性の低い戦略を迅速に学習することにあります。
論文 参考訳(メタデータ) (2020-02-24T20:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。