論文の概要: Are the Players in an Interactive Belief Model Meta-certain of the Model
Itself?
- arxiv url: http://arxiv.org/abs/2106.11500v1
- Date: Tue, 22 Jun 2021 02:46:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 03:05:58.727246
- Title: Are the Players in an Interactive Belief Model Meta-certain of the Model
Itself?
- Title(参考訳): 対話型信念モデルにおけるプレイヤーはモデルそのもののメタ・サテライトか?
- Authors: Satoshi Fukuda (Department of Decision Sciences and IGIER, Bocconi
University)
- Abstract要約: この論文はプレイヤーの信念生成マップを定義し、プレイヤーがその状態において各イベントを信じるかどうかを各状態と関連付ける。
論文は、プレイヤーが自身の信念生成マップを(ミータ-)確認していることと、信念が内省的であることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In an interactive belief model, are the players "commonly meta-certain" of
the model itself? This paper formalizes such implicit "common meta-certainty"
assumption. To that end, the paper expands the objects of players' beliefs from
events to functions defined on the underlying states. Then, the paper defines a
player's belief-generating map: it associates, with each state, whether a
player believes each event at that state. The paper formalizes what it means
by: "a player is (meta-)certain of her own belief-generating map" or "the
players are (meta-)certain of the profile of belief-generating maps (i.e., the
model)." The paper shows: a player is (meta-)certain of her own
belief-generating map if and only if her beliefs are introspective. The players
are commonly (meta-)certain of the model if and only if, for any event which
some player i believes at some state, it is common belief at the state that
player i believes the event. This paper then asks whether the "common
meta-certainty" assumption is needed for an epistemic characterization of
game-theoretic solution concepts. The paper shows: if each player is logical
and (meta-)certain of her own strategy and belief-generating map, then each
player correctly believes her own rationality. Consequently, common belief in
rationality alone leads to actions that survive iterated elimination of
strictly dominated actions.
- Abstract(参考訳): インタラクティブな信念モデルでは、プレイヤーはモデル自体の「一般的にメタ確実」なのだろうか?
本稿では,このような暗黙の「共通メタ認定」仮定を定式化する。
この目的のために、この論文はプレイヤーの信念の目的をイベントから基礎となる状態に定義された関数へと拡張する。
次に、プレイヤーの信念生成マップを定義し、プレイヤーがその状態において各イベントを信じるかどうかを各状態と関連付ける。
この論文は、その意味を定式化している:「プレイヤーは自身の信念生成マップを(メタ)確認している」または「プレイヤーは(メタ)信念生成マップのプロファイル(すなわちモデル)を認定している」。
論文は、プレイヤーが自身の信念生成マップを(メタ-)確認していることと、その信念が内省的であることを示している。
プレイヤーは、通常、ある状態において、あるプレイヤーが信じる任意のイベントに対して、プレイヤーがそのイベントを信じる状態において共通の信念である場合(メタ-)である。
そこで本稿では,ゲーム理論的な解概念の認識論的特徴付けに「共通メタ認定」の仮定が必要かどうかを問う。
それぞれのプレイヤーが論理的かつ(メタ)に自身の戦略と信念生成マップを確認したならば、各プレイヤーは自身の合理性を正しく信じます。
その結果、合理性のみに対する共通の信念は、厳格に支配された行動の反復的排除を生き残る行動につながる。
関連論文リスト
- Is Knowledge Power? On the (Im)possibility of Learning from Strategic Interactions [18.41181817693548]
主要な問題は、エージェントが自分の好みに対する不確実性を克服し、不確実性を欠く結果を達成するかどうかである。
プレイヤーの行動が学習アルゴリズムに基づいて決定される完全に戦略的な環境での反復的な相互作用について検討する。
1人のプレイヤーがゲームについて完全な知識を持っている場合、初期情報ギャップは持続することを示す。
論文 参考訳(メタデータ) (2024-08-15T17:17:56Z) - Quantum Bayesian Games [0.09208007322096534]
我々は、QBismにインスパイアされたベイズエージェントベースのフレームワークを、2つの量子ゲーム、CHSHゲームと量子囚人ジレンマの反復に適用する。
各2人プレイヤゲームでは、プレイヤーは共有される絡み合いの量と、他のプレイヤーの行動や信念についての信念を保持する。
プレイヤーが共通の絡み合いの存在について学べるかどうかをシミュレートし、彼らのパフォーマンス、彼らの信念、そしてゲームの構造がどのように相互に関連しているかを探るため、繰り返しプレイをシミュレートする。
論文 参考訳(メタデータ) (2024-08-04T15:15:42Z) - Infinite Ends from Finite Samples: Open-Ended Goal Inference as Top-Down Bayesian Filtering of Bottom-Up Proposals [48.437581268398866]
オープンエンドゴール推論のシーケンシャルなモンテカルロモデルを導入する。
我々はこのモデルをブロックワードと呼ばれるゴール推論タスクで検証する。
実験では,人間理論の速度,精度,一般性を説明する上で,トップダウンモデルとボトムアップモデルを組み合わせることの重要性を強調した。
論文 参考訳(メタデータ) (2024-07-23T18:04:40Z) - Interpretability Needs a New Paradigm [49.134097841837715]
解釈可能性(英: Interpretability)とは、人間に理解可能な言葉でモデルを説明する研究である。
この議論の核心は、それぞれのパラダイムがその説明が忠実である、すなわちモデルの振舞いに忠実であることをいかに保証するかである。
この論文の立場は、信仰を警戒しながら新しいパラダイムを考えるべきだというものである。
論文 参考訳(メタデータ) (2024-05-08T19:31:06Z) - Grounding Language about Belief in a Bayesian Theory-of-Mind [5.058204320571824]
我々は、ベイズ理論における信念文の意味論を基礎づけて、答えに向かって一歩進む。
人類が共同で目標、信念、計画の集合をどう推測するかをモデル化することによって、我々の枠組みは信念に対する概念的な役割のセマンティクスを提供する。
我々は、エージェントがドア・アンド・キーズ・グリッドワールドパズルを解くのを見ながら、人間が目標や信念をどう評価するかを研究することで、この枠組みを評価する。
論文 参考訳(メタデータ) (2024-02-16T02:47:09Z) - Probabilistic Modeling of Human Teams to Infer False Beliefs [0.5508554968571866]
本研究では,3人組のチームによる都市探索・救助シナリオにおいて,人間の信念を推測する人工知能エージェントのモデルを構築した。
プレイヤーの行動は、ゲーム内の視点で見るものの影響を受けている。
私たちは、個人と共有された精神状態について推論できるAIエージェントであるToMCATを導入することで、この分野における過去の研究を拡張します。
論文 参考訳(メタデータ) (2023-10-19T17:28:37Z) - I Cast Detect Thoughts: Learning to Converse and Guide with Intents and
Theory-of-Mind in Dungeons and Dragons [82.28503603235364]
ダンジョンズとドラゴンズにおける目標駆動型環境における教師と学生の自然言語相互作用について検討した。
我々のアプローチは,(1)ダンジョンマスターがプレイヤーを目標に向かって誘導する意図,(2)DMが意図を表現しているプレイヤーへの指示発声,(3)プレイヤーの指導に対する反応を未来へと一変させる理論・オブ・ミンド(ToM)モデルに分解・モデル化することである。
論文 参考訳(メタデータ) (2022-12-20T08:06:55Z) - Collusion Detection in Team-Based Multiplayer Games [57.153233321515984]
チームベースのマルチプレイヤーゲームにおいて,協調動作を検出するシステムを提案する。
提案手法は,ゲーム内行動パターンと組み合わせたプレイヤーの社会的関係を解析する。
次に,非教師なし学習手法であるアイソレーションフォレストによる検出を自動化する。
論文 参考訳(メタデータ) (2022-03-10T02:37:39Z) - Do Language Models Have Beliefs? Methods for Detecting, Updating, and
Visualizing Model Beliefs [76.6325846350907]
Dennett (1995) は、サーモスタットでさえ、信念は単なる情報状態であり、モチベーションのある状態とは切り離されているという観点から、信念を持っていると論じている。
本稿では,モデルが世界に対する信念をいつ持っているかを検出するためのアプローチについて論じるとともに,モデル信念をより誠実に更新する方法の改善について述べる。
論文 参考訳(メタデータ) (2021-11-26T18:33:59Z) - Imagining Grounded Conceptual Representations from Perceptual
Information in Situated Guessing Games [83.53942719040576]
視覚的な推測ゲームでは、GuesserはOracleに質問することで、シーン内のターゲットオブジェクトを特定する必要がある。
既存のモデルは真のマルチモーダル表現を学ばず、訓練と推論の両方でシーン内のオブジェクトのゴールドカテゴリラベルに依存している。
本稿では,正規化オートエンコーダをベースとした新しい「想像」モジュールを提案する。
論文 参考訳(メタデータ) (2020-11-05T15:42:29Z) - Fictitious play in zero-sum stochastic games [1.9143447222638694]
ゲームにおける古典的な遊びとQ-ラーニングを組み合わせた架空の遊び力学の新たな変種を提案する。
2プレイヤーゼロサムゲームにおける収束特性を解析する。
論文 参考訳(メタデータ) (2020-10-08T19:06:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。