論文の概要: Zero-Knowledge Games
- arxiv url: http://arxiv.org/abs/2009.13521v4
- Date: Sat, 18 May 2024 21:43:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 03:18:46.178646
- Title: Zero-Knowledge Games
- Title(参考訳): Zero-Knowledge ゲーム
- Authors: Ian Malloy,
- Abstract要約: ゼロ知識ゲームでは、最終的に証明器と検証器が2人プレイヤゲームに相当し、全てのプレイヤーがインフォームドまたはインフォームドされることを示す。
信頼の効用は混合戦略ナッシュ均衡の中で確立される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper we model a game such that all optimal strategies are non-revealing, with imperfect recall and incomplete information. Furthermore, using a modified sliding-block code as pseudo-virtual memory, the linear transformation generates common knowledge of how informed a player is. Ultimately, we see that between n-players in a zero-knowledge game there is ultimately a prover and verifier equivalent to a two-player game where all players are either informed or uninformed. The utility of trust is established within the mixed strategy Nash equilibrium.
- Abstract(参考訳): 本稿では,全ての最適戦略が不完全なリコールと不完全な情報を持つ非発見的ゲームとしてモデル化する。
さらに、修正されたスライディングブロックコードを擬似仮想記憶として使用することにより、線形変換はプレイヤーの情報伝達に関する共通知識を生成する。
究極的には、ゼロ知識ゲームにおけるn-プレイヤの間には、最終的に証明器と検証器が存在し、全てのプレイヤーが情報またはインフォームされた2-プレイヤゲームに相当する。
信頼の効用は混合戦略ナッシュ均衡の中で確立される。
関連論文リスト
- Neural Network-based Information Set Weighting for Playing Reconnaissance Blind Chess [4.336779198334903]
不完全な情報ゲームでは、ゲーム状態は一般にプレイヤーにとって完全に観察できない。
我々は、歴史ゲームデータから設定した情報において、各状態の確率を推定する2つの異なるニューラルネットワークを訓練する。
実験により、シームズニューラルネットワークはより精度が高く、与えられたドメインに対する古典的な畳み込みニューラルネットワークよりも効率的であることが判明した。
論文 参考訳(メタデータ) (2024-07-08T12:29:29Z) - Imperfect-Recall Games: Equilibrium Concepts and Their Complexity [74.01381499760288]
エージェントが以前保持していた情報を忘れたとき、不完全なリコールの下で最適な意思決定を行う。
不完全なリコールを伴う広範囲形式のゲームフレームワークにおいて、マルチプレイヤー設定における平衡を求める際の計算複雑性を解析する。
論文 参考訳(メタデータ) (2024-06-23T00:27:28Z) - State-Constrained Zero-Sum Differential Games with One-Sided Information [19.964883571758502]
状態制約と一方的な情報を持つゼロサム差分ゲームについて検討する。
我々の貢献は、状態制約のあるゲームの拡張であり、行動戦略の計算に必要な原始的および双対的準力学原理の導出である。
論文 参考訳(メタデータ) (2024-03-05T07:51:38Z) - Stable Knowledge Editing in Large Language Models [68.98582618305679]
本稿では,知識ローカライゼーションではなく,知識増強に基づく知識編集手法であるStableKEを紹介する。
人間のラベル付けのコストを克服するため、StableKEは2つの自動知識増強戦略を統合している。
StableKEは、他の知識編集方法を超え、編集された知識とマルチホップ知識の両方の安定性を示す。
論文 参考訳(メタデータ) (2024-02-20T14:36:23Z) - Explaining How a Neural Network Play the Go Game and Let People Learn [26.192580802652742]
AIモデルは、Goのゲームで人間のプレイヤーを追い越した。
AIモデルは、人間のプレイヤーを超えて、Goゲームに関する新しい知識をエンコードしたと広く信じられている。
論文 参考訳(メタデータ) (2023-10-15T13:57:50Z) - Abstracting Imperfect Information Away from Two-Player Zero-Sum Games [85.27865680662973]
Nayyar et al. (2013) は、プレイヤーがプレイ中にポリシーを公に発表することで、不完全な情報を共通のペイオフゲームから抽象化できることを示した。
この研究は、ある正規化された平衡が上記の非対応問題を持たないことを示している。
これらの正規化された平衡はナッシュ平衡に任意に近づくことができるので、この結果は2つのプレイヤーゼロサムゲームを解くための新たな視点への扉を開く。
論文 参考訳(メタデータ) (2023-01-22T16:54:06Z) - Finding mixed-strategy equilibria of continuous-action games without
gradients using randomized policy networks [83.28949556413717]
グラデーションへのアクセスを伴わない連続アクションゲームのナッシュ平衡を近似的に計算する問題について検討する。
ニューラルネットワークを用いてプレイヤーの戦略をモデル化する。
本論文は、制約のない混合戦略と勾配情報のない一般的な連続アクションゲームを解決する最初の方法である。
論文 参考訳(メタデータ) (2022-11-29T05:16:41Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Deep Reinforcement Learning for FlipIt Security Game [2.0624765454705654]
本稿では,エージェントが対戦者の異なるクラスに適応し,最適な対ストラテジーを学習する深層学習モデルについて述べる。
FlipItは、プレイヤー、攻撃者、ディフェンダーの双方が共有リソースの所有権を競う2人プレイのセキュリティゲームです。
我々のモデルは、Qラーニングと組み合わせたディープニューラルネットワークであり、リソースの所有時間の最大化のために訓練されている。
論文 参考訳(メタデータ) (2020-02-28T18:26:24Z) - Signaling in Bayesian Network Congestion Games: the Subtle Power of
Symmetry [66.82463322411614]
本論文は, 最適遠点透過型シグナリング方式の問題点に焦点をあて, 対称性がその解法において重要な性質であることを示す。
プレイヤーが対称でアフィンコスト関数を持つとき,最適なエクアント説得スキームが計算可能であることを示す。
論文 参考訳(メタデータ) (2020-02-12T19:38:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。