論文の概要: Modeling the Mistakes of Boundedly Rational Agents Within a Bayesian
Theory of Mind
- arxiv url: http://arxiv.org/abs/2106.13249v1
- Date: Thu, 24 Jun 2021 18:00:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-28 13:01:15.695054
- Title: Modeling the Mistakes of Boundedly Rational Agents Within a Bayesian
Theory of Mind
- Title(参考訳): ベイズ心の理論における有界有理エージェントの誤りのモデル化
- Authors: Arwa Alanqary, Gloria Z. Lin, Joie Le, Tan Zhi-Xuan, Vikash K.
Mansinghka, Joshua B. Tenenbaum
- Abstract要約: 我々は、ベイズ的マインド理論フレームワークを拡張し、目標、計画、行動の誤りを犯したかもしれない有理論的エージェントをモデル化する。
本研究では,扉の裏に宝石を閉じ込めたグリッドワールドパズル (i) とブロックスタッキングドメイン (ii) の2つの領域において,人間の目標推論を導出する実験を行う。
- 参考スコア(独自算出の注目度): 32.66203057545608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When inferring the goals that others are trying to achieve, people
intuitively understand that others might make mistakes along the way. This is
crucial for activities such as teaching, offering assistance, and deciding
between blame or forgiveness. However, Bayesian models of theory of mind have
generally not accounted for these mistakes, instead modeling agents as mostly
optimal in achieving their goals. As a result, they are unable to explain
phenomena like locking oneself out of one's house, or losing a game of chess.
Here, we extend the Bayesian Theory of Mind framework to model boundedly
rational agents who may have mistaken goals, plans, and actions. We formalize
this by modeling agents as probabilistic programs, where goals may be confused
with semantically similar states, plans may be misguided due to
resource-bounded planning, and actions may be unintended due to execution
errors. We present experiments eliciting human goal inferences in two domains:
(i) a gridworld puzzle with gems locked behind doors, and (ii) a block-stacking
domain. Our model better explains human inferences than alternatives, while
generalizing across domains. These findings indicate the importance of modeling
others as bounded agents, in order to account for the full richness of human
intuitive psychology.
- Abstract(参考訳): 他の人が達成しようとしている目標を推測するとき、人々は直感的に他人が途中で間違いを犯すかもしれないことを理解します。
これは、教育、援助の提供、非難と許しのどちらかの決定などの活動に不可欠である。
しかしながら、心の理論のベイズモデルは一般にこれらの誤りを考慮せず、代わりにエージェントを目的を達成するのに最適なものとしてモデル化している。
結果として、彼らは自分の家をロックアウトしたり、チェスの試合に負けたりといった現象を説明できない。
ここでは、目標、計画、行動の誤りがある境界有理なエージェントをモデル化するために、ベイズ理論のマインドフレームワークを拡張する。
我々はエージェントを確率的プログラムとしてモデル化することでこれを形式化し、そこでは目標が意味論的に類似した状態と混同され、計画がリソース境界の計画によって誤認され、実行エラーにより行動が意図されない可能性がある。
本研究では,扉の裏に宝石を閉じ込めたグリッドワールドパズル (i) とブロックスタッキングドメイン (ii) の2つの領域において,人間の目標推論を導く実験を行う。
我々のモデルは、ドメインをまたいで一般化しながら、選択肢よりも人間の推論をうまく説明します。
これらの知見は、人間の直感心理学の豊かさを考慮し、他者を有界エージェントとしてモデル化することの重要性を示している。
関連論文リスト
- Infinite Ends from Finite Samples: Open-Ended Goal Inference as Top-Down Bayesian Filtering of Bottom-Up Proposals [48.437581268398866]
オープンエンドゴール推論のシーケンシャルなモンテカルロモデルを導入する。
我々はこのモデルをブロックワードと呼ばれるゴール推論タスクで検証する。
実験では,人間理論の速度,精度,一般性を説明する上で,トップダウンモデルとボトムアップモデルを組み合わせることの重要性を強調した。
論文 参考訳(メタデータ) (2024-07-23T18:04:40Z) - Evaluating the World Model Implicit in a Generative Model [7.317896355747284]
最近の研究は、大きな言語モデルが暗黙的に世界モデルを学ぶことを示唆している。
これには、単純な論理的推論、地理的ナビゲーション、ゲームプレイング、化学といった問題が含まれる。
我々は,古典的なマイヒル・ネローデ定理に触発された世界モデル回復のための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2024-06-06T02:20:31Z) - The Neuro-Symbolic Inverse Planning Engine (NIPE): Modeling
Probabilistic Social Inferences from Linguistic Inputs [50.32802502923367]
確率的目標推論領域における言語駆動の過程と社会的推論への影響について検討する。
本稿では,エージェントシナリオの言語入力から目標推定を行うニューロシンボリックモデルを提案する。
我々のモデルは人間の反応パターンと密に一致し、LLM単独の使用よりも人間の判断をより良く予測する。
論文 参考訳(メタデータ) (2023-06-25T19:38:01Z) - Evaluating Superhuman Models with Consistency Checks [14.04919745612553]
整合性チェックによる超人的モデル評価のためのフレームワークを提案する。
決定の正確性を評価するのが難しい3つのタスクについて、我々のフレームワークをインスタンス化する。
論文 参考訳(メタデータ) (2023-06-16T17:26:38Z) - On the Sensitivity of Reward Inference to Misspecified Human Models [27.94055657571769]
人間の振る舞いから報酬関数を推論することは、価値の整合の中心であり、AIの目標と私たち、人間、実際に望むものとを整合させる。
これらのモデルは、報酬の推測が正確になるために、どの程度正確なものが必要なのか?
提案手法は, 推定報酬において, 任意に大きな誤差を生じさせるような, 行動の小さな逆バイアスを構築することが可能であることを示す。
論文 参考訳(メタデータ) (2022-12-09T08:16:20Z) - Self-Explaining Deviations for Coordination [31.94421561348329]
我々は、人間が自己説明的逸脱(SED)を発見することができる調整問題の特定のサブクラスに焦点を当てる。
SEDは、通常の状況で合理的な振る舞いが何であるかを共通の理解から逸脱する行動である。
本稿では,自己説明的偏差(IMPROVISED)を最大化してSEDを行う新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-13T20:56:59Z) - Safe Learning of Lifted Action Models [46.65973550325976]
本稿では,古典計画におけるモデルフリー計画問題の解法を提案する。
将来の問題を高い確率で解くのに必要な軌道の数は、ドメインモデルの潜在的サイズにおいて線形である。
論文 参考訳(メタデータ) (2021-07-09T01:24:01Z) - What can I do here? A Theory of Affordances in Reinforcement Learning [65.70524105802156]
我々はマルコフ決定過程の学習と計画を行うエージェントのための余裕の理論を開発する。
このケースでは、任意の状況で利用可能なアクションの数を減らすことで、アフォーダンスが二重の役割を担います。
本稿では,よりシンプルで一般化された遷移モデルを推定するために,余裕を学習し,それを利用するアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-26T16:34:53Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。