論文の概要: Zero-Knowledge Games
- arxiv url: http://arxiv.org/abs/2009.13521v4
- Date: Sat, 18 May 2024 21:43:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 03:18:46.178646
- Title: Zero-Knowledge Games
- Title(参考訳): Zero-Knowledge ゲーム
- Authors: Ian Malloy,
- Abstract要約: ゼロ知識ゲームでは、最終的に証明器と検証器が2人プレイヤゲームに相当し、全てのプレイヤーがインフォームドまたはインフォームドされることを示す。
信頼の効用は混合戦略ナッシュ均衡の中で確立される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper we model a game such that all optimal strategies are non-revealing, with imperfect recall and incomplete information. Furthermore, using a modified sliding-block code as pseudo-virtual memory, the linear transformation generates common knowledge of how informed a player is. Ultimately, we see that between n-players in a zero-knowledge game there is ultimately a prover and verifier equivalent to a two-player game where all players are either informed or uninformed. The utility of trust is established within the mixed strategy Nash equilibrium.
- Abstract(参考訳): 本稿では,全ての最適戦略が不完全なリコールと不完全な情報を持つ非発見的ゲームとしてモデル化する。
さらに、修正されたスライディングブロックコードを擬似仮想記憶として使用することにより、線形変換はプレイヤーの情報伝達に関する共通知識を生成する。
究極的には、ゼロ知識ゲームにおけるn-プレイヤの間には、最終的に証明器と検証器が存在し、全てのプレイヤーが情報またはインフォームされた2-プレイヤゲームに相当する。
信頼の効用は混合戦略ナッシュ均衡の中で確立される。
関連論文リスト
- Is Knowledge Power? On the (Im)possibility of Learning from Strategic Interactions [18.41181817693548]
主要な問題は、エージェントが自分の好みに対する不確実性を克服し、不確実性を欠く結果を達成するかどうかである。
プレイヤーの行動が学習アルゴリズムに基づいて決定される完全に戦略的な環境での反復的な相互作用について検討する。
1人のプレイヤーがゲームについて完全な知識を持っている場合、初期情報ギャップは持続することを示す。
論文 参考訳(メタデータ) (2024-08-15T17:17:56Z) - Finite-Sample Guarantees for Best-Response Learning Dynamics in Zero-Sum Matrix Games [22.380293155135096]
2人のプレイヤーゼロサム行列ゲームに対する最適応答型学習ダイナミクスについて検討する。
我々は,各プレイヤーがゲームと相手の戦略について持っている情報の種類によって区別される2つの設定について検討する。
論文 参考訳(メタデータ) (2024-07-29T15:56:49Z) - Imperfect-Recall Games: Equilibrium Concepts and Their Complexity [74.01381499760288]
エージェントが以前保持していた情報を忘れたとき、不完全なリコールの下で最適な意思決定を行う。
不完全なリコールを伴う広範囲形式のゲームフレームワークにおいて、マルチプレイヤー設定における平衡を求める際の計算複雑性を解析する。
論文 参考訳(メタデータ) (2024-06-23T00:27:28Z) - State-Constrained Zero-Sum Differential Games with One-Sided Information [19.964883571758502]
状態制約と一方的な情報を持つゼロサム差分ゲームについて検討する。
我々の貢献は、状態制約のあるゲームの拡張であり、行動戦略の計算に必要な原始的および双対的準力学原理の導出である。
論文 参考訳(メタデータ) (2024-03-05T07:51:38Z) - Stable Knowledge Editing in Large Language Models [68.98582618305679]
本稿では,知識ローカライゼーションではなく,知識増強に基づく知識編集手法であるStableKEを紹介する。
人間のラベル付けのコストを克服するため、StableKEは2つの自動知識増強戦略を統合している。
StableKEは、他の知識編集方法を超え、編集された知識とマルチホップ知識の両方の安定性を示す。
論文 参考訳(メタデータ) (2024-02-20T14:36:23Z) - The Knowledge Alignment Problem: Bridging Human and External Knowledge for Large Language Models [65.80573571314534]
MixAlignは、ユーザと知識ベースの両方と対話して、ユーザの質問が格納された情報とどのように関連しているかを把握し、統合するフレームワークである。
実験結果から、モデル性能の向上と幻覚の緩和における知識アライメントの重要性が強調され、それぞれ22.2%と27.1%の改善が指摘された。
論文 参考訳(メタデータ) (2023-05-23T04:22:50Z) - Adiabatic replay for continual learning [138.7878582237908]
生成的リプレイは、すでに知られていることを再学習するだけで、より多くの時間を費やします。
我々は、アディバティック・リプレイ(AR)と呼ぶリプレイベースのCL戦略を提案する。
VAEを用いた最先端の深層再生よりもARの方が優れていることを実験的に検証した。
論文 参考訳(メタデータ) (2023-03-23T10:18:06Z) - Abstracting Imperfect Information Away from Two-Player Zero-Sum Games [85.27865680662973]
Nayyar et al. (2013) は、プレイヤーがプレイ中にポリシーを公に発表することで、不完全な情報を共通のペイオフゲームから抽象化できることを示した。
この研究は、ある正規化された平衡が上記の非対応問題を持たないことを示している。
これらの正規化された平衡はナッシュ平衡に任意に近づくことができるので、この結果は2つのプレイヤーゼロサムゲームを解くための新たな視点への扉を開く。
論文 参考訳(メタデータ) (2023-01-22T16:54:06Z) - Deep Reinforcement Learning for FlipIt Security Game [2.0624765454705654]
本稿では,エージェントが対戦者の異なるクラスに適応し,最適な対ストラテジーを学習する深層学習モデルについて述べる。
FlipItは、プレイヤー、攻撃者、ディフェンダーの双方が共有リソースの所有権を競う2人プレイのセキュリティゲームです。
我々のモデルは、Qラーニングと組み合わせたディープニューラルネットワークであり、リソースの所有時間の最大化のために訓練されている。
論文 参考訳(メタデータ) (2020-02-28T18:26:24Z) - Signaling in Bayesian Network Congestion Games: the Subtle Power of
Symmetry [66.82463322411614]
本論文は, 最適遠点透過型シグナリング方式の問題点に焦点をあて, 対称性がその解法において重要な性質であることを示す。
プレイヤーが対称でアフィンコスト関数を持つとき,最適なエクアント説得スキームが計算可能であることを示す。
論文 参考訳(メタデータ) (2020-02-12T19:38:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。