論文の概要: Are the Players in an Interactive Belief Model Meta-certain of the Model
Itself?
- arxiv url: http://arxiv.org/abs/2106.11500v1
- Date: Tue, 22 Jun 2021 02:46:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 03:05:58.727246
- Title: Are the Players in an Interactive Belief Model Meta-certain of the Model
Itself?
- Title(参考訳): 対話型信念モデルにおけるプレイヤーはモデルそのもののメタ・サテライトか?
- Authors: Satoshi Fukuda (Department of Decision Sciences and IGIER, Bocconi
University)
- Abstract要約: この論文はプレイヤーの信念生成マップを定義し、プレイヤーがその状態において各イベントを信じるかどうかを各状態と関連付ける。
論文は、プレイヤーが自身の信念生成マップを(ミータ-)確認していることと、信念が内省的であることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In an interactive belief model, are the players "commonly meta-certain" of
the model itself? This paper formalizes such implicit "common meta-certainty"
assumption. To that end, the paper expands the objects of players' beliefs from
events to functions defined on the underlying states. Then, the paper defines a
player's belief-generating map: it associates, with each state, whether a
player believes each event at that state. The paper formalizes what it means
by: "a player is (meta-)certain of her own belief-generating map" or "the
players are (meta-)certain of the profile of belief-generating maps (i.e., the
model)." The paper shows: a player is (meta-)certain of her own
belief-generating map if and only if her beliefs are introspective. The players
are commonly (meta-)certain of the model if and only if, for any event which
some player i believes at some state, it is common belief at the state that
player i believes the event. This paper then asks whether the "common
meta-certainty" assumption is needed for an epistemic characterization of
game-theoretic solution concepts. The paper shows: if each player is logical
and (meta-)certain of her own strategy and belief-generating map, then each
player correctly believes her own rationality. Consequently, common belief in
rationality alone leads to actions that survive iterated elimination of
strictly dominated actions.
- Abstract(参考訳): インタラクティブな信念モデルでは、プレイヤーはモデル自体の「一般的にメタ確実」なのだろうか?
本稿では,このような暗黙の「共通メタ認定」仮定を定式化する。
この目的のために、この論文はプレイヤーの信念の目的をイベントから基礎となる状態に定義された関数へと拡張する。
次に、プレイヤーの信念生成マップを定義し、プレイヤーがその状態において各イベントを信じるかどうかを各状態と関連付ける。
この論文は、その意味を定式化している:「プレイヤーは自身の信念生成マップを(メタ)確認している」または「プレイヤーは(メタ)信念生成マップのプロファイル(すなわちモデル)を認定している」。
論文は、プレイヤーが自身の信念生成マップを(メタ-)確認していることと、その信念が内省的であることを示している。
プレイヤーは、通常、ある状態において、あるプレイヤーが信じる任意のイベントに対して、プレイヤーがそのイベントを信じる状態において共通の信念である場合(メタ-)である。
そこで本稿では,ゲーム理論的な解概念の認識論的特徴付けに「共通メタ認定」の仮定が必要かどうかを問う。
それぞれのプレイヤーが論理的かつ(メタ)に自身の戦略と信念生成マップを確認したならば、各プレイヤーは自身の合理性を正しく信じます。
その結果、合理性のみに対する共通の信念は、厳格に支配された行動の反復的排除を生き残る行動につながる。
関連論文リスト
- State-Constrained Zero-Sum Differential Games with One-Sided Information [21.81020103468953]
状態制約と一方的な情報を持つゼロサム差分ゲームについて検討する。
このようなゲームの価値は存在しており、プレイヤーの共通の信念と一致していることを示す。
この作業の有用性を実証するために、単純化されたフットボールゲームを使用します。
論文 参考訳(メタデータ) (2024-03-05T07:51:38Z) - Grounding Language about Belief in a Bayesian Theory-of-Mind [5.426674040404982]
我々は、ベイズ理論における信念文の意味論を基礎づけて、答えに向かって一歩進む。
人類が共同で目標、信念、計画の集合をどう推測するかをモデル化することによって、我々の枠組みは信念に対する概念的な役割のセマンティクスを提供する。
我々は、エージェントがドア・アンド・キーズ・グリッドワールドパズルを解くのを見ながら、人間が目標や信念をどう評価するかを研究することで、この枠組みを評価する。
論文 参考訳(メタデータ) (2024-02-16T02:47:09Z) - Probabilistic Modeling of Human Teams to Infer False Beliefs [0.5508554968571866]
本研究では,3人組のチームによる都市探索・救助シナリオにおいて,人間の信念を推測する人工知能エージェントのモデルを構築した。
プレイヤーの行動は、ゲーム内の視点で見るものの影響を受けている。
私たちは、個人と共有された精神状態について推論できるAIエージェントであるToMCATを導入することで、この分野における過去の研究を拡張します。
論文 参考訳(メタデータ) (2023-10-19T17:28:37Z) - How FaR Are Large Language Models From Agents with Theory-of-Mind? [69.41586417697732]
大規模言語モデル(LLM)に対する新たな評価パラダイムを提案する。
T4Dは、他者の精神状態に関する推論を社会的シナリオにおける行動に結びつけるモデルを必要とする。
ゼロショットプロンプトフレームワークであるフォアシー・アンド・リフレクション(FaR)を導入し,LCMが今後の課題を予測できるように推論構造を提供する。
論文 参考訳(メタデータ) (2023-10-04T06:47:58Z) - All by Myself: Learning Individualized Competitive Behaviour with a
Contrastive Reinforcement Learning optimization [57.615269148301515]
競争ゲームのシナリオでは、エージェントのセットは、彼らの目標を最大化し、敵の目標を同時に最小化する決定を学習する必要があります。
本稿では,競争ゲームの表現を学習し,特定の相手の戦略をどうマップするか,それらを破壊するかを学習する3つのニューラルネットワーク層からなる新しいモデルを提案する。
我々の実験は、オフライン、オンライン、競争特化モデル、特に同じ対戦相手と複数回対戦した場合に、我々のモデルがより良いパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-10-02T08:11:07Z) - I Cast Detect Thoughts: Learning to Converse and Guide with Intents and
Theory-of-Mind in Dungeons and Dragons [82.28503603235364]
ダンジョンズとドラゴンズにおける目標駆動型環境における教師と学生の自然言語相互作用について検討した。
我々のアプローチは,(1)ダンジョンマスターがプレイヤーを目標に向かって誘導する意図,(2)DMが意図を表現しているプレイヤーへの指示発声,(3)プレイヤーの指導に対する反応を未来へと一変させる理論・オブ・ミンド(ToM)モデルに分解・モデル化することである。
論文 参考訳(メタデータ) (2022-12-20T08:06:55Z) - Collusion Detection in Team-Based Multiplayer Games [57.153233321515984]
チームベースのマルチプレイヤーゲームにおいて,協調動作を検出するシステムを提案する。
提案手法は,ゲーム内行動パターンと組み合わせたプレイヤーの社会的関係を解析する。
次に,非教師なし学習手法であるアイソレーションフォレストによる検出を自動化する。
論文 参考訳(メタデータ) (2022-03-10T02:37:39Z) - Do Language Models Have Beliefs? Methods for Detecting, Updating, and
Visualizing Model Beliefs [76.6325846350907]
Dennett (1995) は、サーモスタットでさえ、信念は単なる情報状態であり、モチベーションのある状態とは切り離されているという観点から、信念を持っていると論じている。
本稿では,モデルが世界に対する信念をいつ持っているかを検出するためのアプローチについて論じるとともに,モデル信念をより誠実に更新する方法の改善について述べる。
論文 参考訳(メタデータ) (2021-11-26T18:33:59Z) - Trust-ya: design of a multiplayer game for the study of small group
processes [2.029924828197095]
本稿では,人間集団における状態過程のいくつかの要素のモデルとして,協調型マルチプレイヤーベッティングゲームであるTrust-yaの設計について述べる。
このゲームは、社会的階層を観察し、影響を及ぼす手段として、ステータス主導のリーダー・フォロワー行動を引き出すように設計されている。
論文 参考訳(メタデータ) (2021-09-09T05:13:14Z) - Imagining Grounded Conceptual Representations from Perceptual
Information in Situated Guessing Games [83.53942719040576]
視覚的な推測ゲームでは、GuesserはOracleに質問することで、シーン内のターゲットオブジェクトを特定する必要がある。
既存のモデルは真のマルチモーダル表現を学ばず、訓練と推論の両方でシーン内のオブジェクトのゴールドカテゴリラベルに依存している。
本稿では,正規化オートエンコーダをベースとした新しい「想像」モジュールを提案する。
論文 参考訳(メタデータ) (2020-11-05T15:42:29Z) - Fictitious play in zero-sum stochastic games [1.9143447222638694]
ゲームにおける古典的な遊びとQ-ラーニングを組み合わせた架空の遊び力学の新たな変種を提案する。
2プレイヤーゼロサムゲームにおける収束特性を解析する。
論文 参考訳(メタデータ) (2020-10-08T19:06:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。