論文の概要: Zero Knowledge Games
- arxiv url: http://arxiv.org/abs/2009.13521v2
- Date: Tue, 13 Apr 2021 19:50:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 22:26:44.953229
- Title: Zero Knowledge Games
- Title(参考訳): ゼロ知識ゲーム
- Authors: Ben Adler
- Abstract要約: 推論と推論の形式としてのゼロ知識戦略はゼロ知識シグナリングの概念を用いて機能する。
連続ゲームを構築する結果として生じる効果は、プレイヤーがおおよそのステージにある許容可能な確率内で、推論する能力を示す。
- 参考スコア(独自算出の注目度): 1.14219428942199
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Zero-knowledge strategies as a form of inference and reasoning operate using
the concept of zero-knowledge signaling, such that any imperfect recall or
incomplete information can be attenuated for. The resulting effect of
structuring a continuous game within a zero-knowledge strategy demonstrates the
ability to infer, within acceptable probabilities, which approximate stage a
player is in. This occurs only when an uninformed player attempts non-revealing
strategies, resulting in a higher probability of failing to appear informed.
Thus, an opposing player understanding their opponent is uninformed can choose
a more optimal strategy. In cases where an informed player chooses a
non-revealing strategy, introducing a hedge algebra as a doxastic heuristic
informs feasibility levels of trust. A counter strategy employing such a hedge
algebra facilitates optimal outcomes for both players, provided the trust is
well placed. Given indefinite, finite sub-games leading to continued
interactions based on trust, extensions to continuous games are feasible.
- Abstract(参考訳): ゼロ知識戦略(zero-knowledge strategies) 推論と推論の形式として、ゼロ知識信号(zero-knowledge signaling)という概念を用いる。
ゼロ知識戦略内で連続ゲームを構築する結果として生じる効果は、プレイヤーがおおよそのステージにいる許容可能な確率内で、推論する能力を示す。
これは、非プレーヤが非プレーヤ戦略を試みる場合にのみ発生し、インフォメーションが失われる確率が高くなる。
したがって、相手が無形であると理解している相手プレイヤーは、より最適な戦略を選択することができる。
情報提供者が非発見戦略を選択する場合、ヘッジ代数をドクサスティックヒューリスティックとして導入すると、信頼の実現可能性レベルが通知される。
このようなヘッジ代数を用いたカウンター戦略は、信頼が十分に置かれている場合、双方のプレイヤーにとって最適な結果をもたらす。
信頼に基づく継続的なインタラクションにつながる有限のサブゲームが無期限に与えられると、連続ゲームの拡張は実現可能である。
関連論文リスト
- Regret Minimization in Stackelberg Games with Side Information [50.270531339600495]
Stackelbergゲーム (Stackelberg game) は、リーダーが(混合)戦略にコミットし、フォロワーがベスト対応する2人プレイのゲームである。
本研究は, リーダが全敵的設定で優れたパフォーマンス(後悔によって測られる)を達成することは不可能であることを示す。
論文 参考訳(メタデータ) (2024-02-13T16:24:57Z) - Abstracting Imperfect Information Away from Two-Player Zero-Sum Games [85.27865680662973]
Nayyar et al. (2013) は、プレイヤーがプレイ中にポリシーを公に発表することで、不完全な情報を共通のペイオフゲームから抽象化できることを示した。
この研究は、ある正規化された平衡が上記の非対応問題を持たないことを示している。
これらの正規化された平衡はナッシュ平衡に任意に近づくことができるので、この結果は2つのプレイヤーゼロサムゲームを解くための新たな視点への扉を開く。
論文 参考訳(メタデータ) (2023-01-22T16:54:06Z) - Finding Nash equilibria by minimizing approximate exploitability with
learned best responses [68.75684174531962]
連続的なアクションセットを持つゲームの近似的ナッシュ均衡を求める問題について検討する。
本稿では,戦略プロファイルに対するエクスプロイラビリティの近似を最小化する2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-01-20T23:55:30Z) - Finding mixed-strategy equilibria of continuous-action games without
gradients using randomized policy networks [83.28949556413717]
グラデーションへのアクセスを伴わない連続アクションゲームのナッシュ平衡を近似的に計算する問題について検討する。
ニューラルネットワークを用いてプレイヤーの戦略をモデル化する。
本論文は、制約のない混合戦略と勾配情報のない一般的な連続アクションゲームを解決する最初の方法である。
論文 参考訳(メタデータ) (2022-11-29T05:16:41Z) - Inverse Reinforcement Learning for Strategy Identification [2.6572330982240935]
敵対的環境では、一方が相手の戦略を特定することで有利になる。
本稿では、逆強化学習(IRL)を用いて、敵環境における戦略を特定することを提案する。
論文 参考訳(メタデータ) (2021-07-31T17:22:52Z) - Learning in two-player games between transparent opponents [0.0]
2つの強化学習エージェントが互いにマトリックスゲームを繰り返すシナリオを考察する。
エージェントの意思決定は互いに透明であり、各エージェントはそれぞれのエージェントに対してどのように対戦するかを予測することができる。
その結果, 相互透明な意思決定と対人意識学習の組み合わせが, 単発受刑者のジレンマにおける相互協力に強く寄与していることが判明した。
論文 参考訳(メタデータ) (2020-12-04T15:41:07Z) - On the Impossibility of Convergence of Mixed Strategies with No Regret
Learning [10.515544361834241]
最適無後悔学習戦略の一般クラスから得られる混合戦略の収束特性について検討する。
各ステップに設定された情報を相手の実演の実証平均とする戦略のクラスを考察する。
論文 参考訳(メタデータ) (2020-12-03T18:02:40Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Efficient exploration of zero-sum stochastic games [83.28949556413717]
ゲームプレイを通じて,ゲームの記述を明示せず,託宣のみにアクセス可能な,重要で一般的なゲーム解決環境について検討する。
限られたデュレーション学習フェーズにおいて、アルゴリズムは両方のプレイヤーのアクションを制御し、ゲームを学習し、それをうまくプレイする方法を学習する。
私たちのモチベーションは、クエリされた戦略プロファイルの支払いを評価するのにコストがかかる状況において、利用可能性の低い戦略を迅速に学習することにあります。
論文 参考訳(メタデータ) (2020-02-24T20:30:38Z) - Optimal strategies in the Fighting Fantasy gaming system: influencing
stochastic dynamics by gambling with limited resource [0.0]
Fighting Fantasyは、世界で人気のあるレクリエーションファンタジーゲームシステムである。
各ラウンドでは、限られた資源(Luck')がギャンブルに費やされ、勝利の利益を増幅したり、損失から赤字を軽減したりすることができる。
我々は,システムに対するベルマン方程式の解法と,ゲーム中の任意の状態に対する最適な戦略を特定するために,後方帰納法を用いる。
論文 参考訳(メタデータ) (2020-02-24T11:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。