論文の概要: Probabilistic Modeling of Human Teams to Infer False Beliefs
- arxiv url: http://arxiv.org/abs/2310.12929v1
- Date: Thu, 19 Oct 2023 17:28:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 13:52:38.469473
- Title: Probabilistic Modeling of Human Teams to Infer False Beliefs
- Title(参考訳): 偽の信念を推測する確率論的チームモデリング
- Authors: Paulo Soares, Adarsh Pyarelal, Kobus Barnard
- Abstract要約: 本研究では,3人組のチームによる都市探索・救助シナリオにおいて,人間の信念を推測する人工知能エージェントのモデルを構築した。
プレイヤーの行動は、ゲーム内の視点で見るものの影響を受けている。
私たちは、個人と共有された精神状態について推論できるAIエージェントであるToMCATを導入することで、この分野における過去の研究を拡張します。
- 参考スコア(独自算出の注目度): 0.5508554968571866
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop a probabilistic graphical model (PGM) for artificially intelligent
(AI) agents to infer human beliefs during a simulated urban search and rescue
(USAR) scenario executed in a Minecraft environment with a team of three
players. The PGM approach makes observable states and actions explicit, as well
as beliefs and intentions grounded by evidence about what players see and do
over time. This approach also supports inferring the effect of interventions,
which are vital if AI agents are to assist human teams. The experiment
incorporates manipulations of players' knowledge, and the virtual
Minecraft-based testbed provides access to several streams of information,
including the objects in the players' field of view. The participants are
equipped with a set of marker blocks that can be placed near room entrances to
signal the presence or absence of victims in the rooms to their teammates. In
each team, one of the members is given a different legend for the markers than
the other two, which may mislead them about the state of the rooms; that is,
they will hold a false belief. We extend previous works in this field by
introducing ToMCAT, an AI agent that can reason about individual and shared
mental states. We find that the players' behaviors are affected by what they
see in their in-game field of view, their beliefs about the meaning of the
markers, and their beliefs about which meaning the team decided to adopt. In
addition, we show that ToMCAT's beliefs are consistent with the players'
actions and that it can infer false beliefs with accuracy significantly better
than chance and comparable to inferences made by human observers.
- Abstract(参考訳): 本研究では,3人のプレイヤーからなるマインクラフト環境で実施される都市探索救助(USAR)シナリオにおいて,AIエージェントの確率論的グラフィカルモデルを構築し,人間の信念を推測する。
PGMのアプローチは、観測可能な状態と行動を明確にし、プレイヤーが時間とともに見たり、何をするかという証拠に基づく信念と意図を明確化する。
このアプローチはまた、人間のチームを支援するAIエージェントが不可欠である介入の効果を推測することを支援する。
この実験にはプレイヤーの知識の操作が組み込まれており、仮想マインクラフトベースのテストベッドはプレイヤーの視野内のオブジェクトを含む複数の情報ストリームへのアクセスを提供する。
参加者は、部屋の入り口近くにマーカーブロックを配置して、部屋にいる犠牲者の存在や不在をチームメイトに知らせることができる。
各チームでは、メンバーの1人に他の2人とは異なる伝説が与えられ、部屋の状態について誤解を招く可能性がある。
我々は、個人的および共有的精神状態の推論が可能なaiエージェントであるtomcatを導入することで、この分野の以前の作業を拡張する。
プレイヤーの行動は、ゲーム内の視野で見たもの、マーカーの意味に関する信念、そして、チームが採用することを決めた意味に関する信念に影響されていることがわかりました。
さらに,ToMCATの信念はプレイヤーの行動と一致しており,人間の観察者による推測に匹敵する精度で誤信を推測できることを示した。
関連論文リスト
- Expectation vs. Reality: Towards Verification of Psychological Games [18.30789345402813]
心理学ゲーム(PG)は、信念に依存した動機を持つエージェントをモデル化し分析する方法として開発された。
本稿では,ゲームの公式検証ツールであるPRISM-gamesでPGを解き,実装する手法を提案する。
論文 参考訳(メタデータ) (2024-11-08T14:41:52Z) - Generative agents in the streets: Exploring the use of Large Language
Models (LLMs) in collecting urban perceptions [0.0]
本研究では,大規模言語モデル(LLM)を用いた生成エージェントの現況について検討する。
この実験では、都市環境と対話するための生成エージェントを用いて、ストリートビューイメージを使用して、特定の目標に向けて旅を計画する。
LLMにはエンボディメントがなく、視覚領域にもアクセスできず、動きや方向の感覚も欠如しているため、エージェントが周囲の全体的理解を得るのに役立つ動きと視覚モジュールを設計した。
論文 参考訳(メタデータ) (2023-12-20T15:45:54Z) - On the recognition of the game type based on physiological signals and
eye tracking [0.0]
我々は,参加者のゲームに対する認識を,問題の探索の場として利用する。
我々は,3つの異なるゲーム(スペースインベーダー,テトリス,タワーディフェンス)とゲーム間停止の分類器を構築する。
ゲーム分類において得られた結果に基づいて、スマート監視と定量化自己の潜在的な応用を考察する。
論文 参考訳(メタデータ) (2023-10-26T13:27:23Z) - Understanding why shooters shoot -- An AI-powered engine for basketball
performance profiling [70.54015529131325]
バスケットボールは、プレイスタイルやゲームダイナミクスなど、多くの変数によって規定されている。
パフォーマンスプロファイルが様々なプレイスタイルを反映できることは重要です。
プレイヤのパフォーマンスプロファイルをタイムリーに可視化するツールを提案する。
論文 参考訳(メタデータ) (2023-03-17T01:13:18Z) - I Cast Detect Thoughts: Learning to Converse and Guide with Intents and
Theory-of-Mind in Dungeons and Dragons [82.28503603235364]
ダンジョンズとドラゴンズにおける目標駆動型環境における教師と学生の自然言語相互作用について検討した。
我々のアプローチは,(1)ダンジョンマスターがプレイヤーを目標に向かって誘導する意図,(2)DMが意図を表現しているプレイヤーへの指示発声,(3)プレイヤーの指導に対する反応を未来へと一変させる理論・オブ・ミンド(ToM)モデルに分解・モデル化することである。
論文 参考訳(メタデータ) (2022-12-20T08:06:55Z) - Incorporating Rivalry in Reinforcement Learning for a Competitive Game [65.2200847818153]
本研究は,競争行動の社会的影響に基づく新しい強化学習機構を提案する。
提案モデルでは, 人工エージェントの学習を調節するための競合スコアを導出するために, 客観的, 社会的認知的メカニズムを集約する。
論文 参考訳(メタデータ) (2022-08-22T14:06:06Z) - Collusion Detection in Team-Based Multiplayer Games [57.153233321515984]
チームベースのマルチプレイヤーゲームにおいて,協調動作を検出するシステムを提案する。
提案手法は,ゲーム内行動パターンと組み合わせたプレイヤーの社会的関係を解析する。
次に,非教師なし学習手法であるアイソレーションフォレストによる検出を自動化する。
論文 参考訳(メタデータ) (2022-03-10T02:37:39Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Are the Players in an Interactive Belief Model Meta-certain of the Model
Itself? [0.0]
この論文はプレイヤーの信念生成マップを定義し、プレイヤーがその状態において各イベントを信じるかどうかを各状態と関連付ける。
論文は、プレイヤーが自身の信念生成マップを(ミータ-)確認していることと、信念が内省的であることを示している。
論文 参考訳(メタデータ) (2021-06-22T02:46:07Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。