論文の概要: Game Redesign in No-regret Game Playing
- arxiv url: http://arxiv.org/abs/2110.11763v1
- Date: Mon, 18 Oct 2021 02:28:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-01 08:25:40.979748
- Title: Game Redesign in No-regret Game Playing
- Title(参考訳): フリーゲームにおけるゲーム再設計
- Authors: Yuzhe Ma, Young Wu, Xiaojin Zhu
- Abstract要約: 本研究では,外部設計者が各ラウンドで支払関数を変更することができるが,元のゲームから逸脱する設計コストがかかるゲーム再設計問題について検討する。
プレイヤーは、制限されたフィードバックで変更したゲームを繰り返しプレイするために、非回帰学習アルゴリズムを適用します。
本稿では,O(T) 累積設計コストのみを発生させながら,T-o(T) ラウンドで目標動作プロファイルが再生されることを保証するゲーム再設計アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 24.260950758682544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the game redesign problem in which an external designer has the
ability to change the payoff function in each round, but incurs a design cost
for deviating from the original game. The players apply no-regret learning
algorithms to repeatedly play the changed games with limited feedback. The
goals of the designer are to (i) incentivize all players to take a specific
target action profile frequently; and (ii) incur small cumulative design cost.
We present game redesign algorithms with the guarantee that the target action
profile is played in T-o(T) rounds while incurring only o(T) cumulative design
cost. Game redesign describes both positive and negative applications: a
benevolent designer who incentivizes players to take a target action profile
with better social welfare compared to the solution of the original game, or a
malicious attacker whose target action profile benefits themselves but not the
players. Simulations on four classic games confirm the effectiveness of our
proposed redesign algorithms.
- Abstract(参考訳): 本研究では,外部設計者が各ラウンドで支払関数を変更することができるが,元のゲームから逸脱する設計コストがかかるゲーム再設計問題について検討する。
プレイヤーは、制限されたフィードバックで変更したゲームを繰り返しプレイするために、非回帰学習アルゴリズムを適用する。
デザイナーの目標は
(i) 特定のターゲットのアクションプロファイルを頻繁に行うよう、すべてのプレイヤーにインセンティブを与え、
(ii)少額の累積設計コストが発生する。
ターゲットアクションプロファイルがt-o(t)ラウンドで行われることを保証しつつ,o(t)累積設計コストのみを伴ってゲーム再設計アルゴリズムを提案する。
ゲームの再設計は、ポジティブなアプリケーションとネガティブなアプリケーションの両方を記述している: プレイヤーに、元のゲームのソリューションよりも優れた社会的厚生でターゲットアクションプロファイルを取るようインセンティブを与える好意的なデザイナー、または、ターゲットアクションプロファイルがプレイヤーに利益をもたらすが、プレイヤーには効果がない悪意のある攻撃者。
4つのクラシックゲームのシミュレーションにより,提案手法の有効性を確認した。
関連論文リスト
- People use fast, goal-directed simulation to reason about novel games [75.25089384921557]
我々は,シンプルだが斬新なコネクテッドnスタイルのボードゲームについて,人々がどう考えるかを研究する。
ゲームがどんなに公平か、そしてどんなに楽しいのかを、ごくわずかな経験から判断するよう、私たちは人々に求めます。
論文 参考訳(メタデータ) (2024-07-19T07:59:04Z) - A Conceptual Design of In-Game Real and Virtual Currency Tracker [0.0]
ゲーム内のバーチャル通貨は、プレイヤ間の不適切なゲーム行動や追加を起動することができる。
市場は、ユーザーの経済的、行動的、心理的な搾取を避けるために、ゲームや顧客保護の規制を欠いている。
本稿では,ゲーム内購入モジュールの概念を提示し,仮想通貨購入に関するリアルタイム支出をユーザが観察できるようにする。
論文 参考訳(メタデータ) (2024-04-05T08:34:22Z) - The Ink Splotch Effect: A Case Study on ChatGPT as a Co-Creative Game
Designer [2.778721019132512]
本稿では,大規模言語モデル(LLM)がゲームデザインにおいて,より効果的でハイレベルな創造的コラボレータや「マウス」として機能するかを考察する。
私たちのゴールは、AIアシスタントが人間のデザイナーによって実現された創造的な意図と比較して、ゲームに取って代わる品質を向上、妨げ、提供できるかどうかを判断することです。
論文 参考訳(メタデータ) (2024-03-04T20:14:38Z) - Bandits Meet Mechanism Design to Combat Clickbait in Online
Recommendation [50.469872635246176]
我々は,マルチアームバンディット問題の戦略的変種について検討し,これを戦略的クリックバンディット(Click-bandit)と呼ぶ。
このモデルは、推奨項目の選択がクリックスルー率とクリック後の報酬の両方に依存するオンラインレコメンデーションのアプリケーションによって動機付けられている。
論文 参考訳(メタデータ) (2023-11-27T09:19:01Z) - Evolutionary Tabletop Game Design: A Case Study in the Risk Game [0.1474723404975345]
本研究は、テーブルトップゲームに対するアプローチの拡張を提案し、リスクの変種を生成することによってプロセスを評価する。
我々は、選択したパラメータを進化させる遺伝的アルゴリズムと、ゲームをテストするルールベースのエージェントを用いてこれを達成した。
結果は、より小さなマップを持つオリジナルゲームの新たなバリエーションが作成され、結果としてより短いマッチとなることを示している。
論文 参考訳(メタデータ) (2023-10-30T20:53:26Z) - No-Regret Learning in Time-Varying Zero-Sum Games [99.86860277006318]
固定ゼロサムゲームにおける繰り返しプレイからの学習は、ゲーム理論とオンライン学習における古典的な問題である。
提案手法は,3つの性能基準の下で,良好な保証を同時に享受できる1つのパラメータフリーアルゴリズムである。
本アルゴリズムは,ある特性を満たすブラックボックスベースラーナー群に対するメタアルゴリズムを用いた2層構造に基づく。
論文 参考訳(メタデータ) (2022-01-30T06:10:04Z) - Sequential Item Recommendation in the MOBA Game Dota 2 [64.8963467704218]
本研究では,Dota 2における購入勧告の文脈における逐次項目推薦(SIR)モデルの適用可能性について検討する。
以上の結果から,購入順序を考慮したモデルが最も有効であることが示唆された。
他のドメインとは対照的に、我々は最新のTransformerベースのアーキテクチャをDota-350kで上回るRNNベースのモデルを見つけました。
論文 参考訳(メタデータ) (2022-01-17T14:19:17Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - SuSketch: Surrogate Models of Gameplay as a Design Assistant [1.9222706856050082]
本稿では,一対一のシューティングレベルの設計ツールであるsusketchを紹介する。
SuSketchは、特定のキャラクタークラスの2人の競合プレイヤーのゲームプレイ予測をデザイナーに提供します。
インターフェイスにより、デザイナーは人工的にインテリジェントなクリエイターと並んで作業できます。
16人のゲーム開発者によるユーザー調査では、このツールは使いやすく、SuSketchをよりアクセスしやすく説明しやすくする必要性を強調しました。
論文 参考訳(メタデータ) (2021-03-22T11:05:27Z) - Exploiting No-Regret Algorithms in System Design [20.189783788006263]
カラムプレーヤがシステムのデザイナでもある2人プレイヤゼロサムゲーム設定について検討する。
カラムプレーヤの目標は、システムデザイナが好む混合戦略を選択するように、相手を誘導することである。
本稿では,システムデザイナのための新しいゲームプレイアルゴリズムを提案し,行プレーヤがミニマックスソリューションに収束するように誘導できることを証明する。
論文 参考訳(メタデータ) (2020-07-22T02:48:28Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。