論文の概要: AutoToM: Automated Bayesian Inverse Planning and Model Discovery for Open-ended Theory of Mind
- arxiv url: http://arxiv.org/abs/2502.15676v1
- Date: Fri, 21 Feb 2025 18:57:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 16:11:03.039194
- Title: AutoToM: Automated Bayesian Inverse Planning and Model Discovery for Open-ended Theory of Mind
- Title(参考訳): AutoToM: オープンエンドマインド理論のための自動ベイズ逆計画とモデル発見
- Authors: Zhining Zhang, Chuanyang Jin, Mung Yao Jia, Tianmin Shu,
- Abstract要約: 心の理論 (ToM) は、社会的に知的なエージェントを開発するための鍵である。
大規模言語モデル(LLM)の推進に頼っている心の理論への最近のアプローチ
本稿では,オープンエンドマシン理論を実現するための自動ベイズマインド理論であるAutoToMを紹介する。
- 参考スコア(独自算出の注目度): 8.619889123184649
- License:
- Abstract: Theory of Mind (ToM), the ability to understand people's mental variables based on their behavior, is key to developing socially intelligent agents. Current approaches to Theory of Mind reasoning either rely on prompting Large Language Models (LLMs), which are prone to systematic errors, or use rigid, handcrafted Bayesian Theory of Mind (BToM) models, which are more robust but cannot generalize across different domains. In this work, we introduce AutoToM, an automated Bayesian Theory of Mind method for achieving open-ended machine Theory of Mind. AutoToM can operate in any domain, infer any mental variable, and conduct robust Theory of Mind reasoning of any order. Given a Theory of Mind inference problem, AutoToM first proposes an initial BToM model. It then conducts automated Bayesian inverse planning based on the proposed model, leveraging an LLM as the backend. Based on the uncertainty of the inference, it iteratively refines the model, by introducing additional mental variables and/or incorporating more timesteps in the context. Empirical evaluations across multiple Theory of Mind benchmarks demonstrate that AutoToM consistently achieves state-of-the-art performance, offering a scalable, robust, and interpretable approach to machine Theory of Mind.
- Abstract(参考訳): 心の理論(Theory of Mind, ToM)は、人の行動に基づいて人の精神変数を理解する能力であり、社会的に知的なエージェントを開発するための鍵となる。
心の理論への現在のアプローチは、体系的な誤りを招きやすい大規模言語モデル (LLM) や、より堅牢だが異なる領域をまたいで一般化できない厳密で手作りのベイズ的心の理論 (BToM) のいずれかに依存している。
本稿では,オープンエンドマシン理論を実現するための自動ベイズマインド理論であるAutoToMを紹介する。
AutoToMは任意のドメインで動作し、任意のメンタル変数を推測し、任意の順序について堅牢なマインド理論を実行することができる。
心の理論が与えられたとき、AutoToMは最初に初期BToMモデルを提案する。
その後、提案したモデルに基づいて自動ベイズ逆計画を行い、LLMをバックエンドとして活用する。
推論の不確実性に基づいて、追加のメンタル変数を導入し、あるいはコンテキストにより多くのタイムステップを組み込むことによって、モデルを反復的に洗練する。
複数のマインド理論ベンチマークにおける実証的な評価は、AutoToMが一貫して最先端のパフォーマンスを達成し、マシン理論に対するスケーラブルで堅牢で解釈可能なアプローチを提供することを示している。
関連論文リスト
- Hypothesis-Driven Theory-of-Mind Reasoning for Large Language Models [76.6028674686018]
エージェントの精神状態を追跡するための推論時間推論アルゴリズムである思考トレースを導入する。
提案アルゴリズムは,ベイズ理論をモデルとした。
本研究は,様々なベンチマークにおける思考トレーシングを評価し,大幅な性能向上を実証した。
論文 参考訳(メタデータ) (2025-02-17T15:08:50Z) - Decompose-ToM: Enhancing Theory of Mind Reasoning in Large Language Models through Simulation and Task Decomposition [2.089191490381739]
心の理論 (Theory of Mind, ToM) は、他者の精神状態を理解し、反映する能力である。
大規模言語モデル(LLM)は、ToMの初歩的な理解しか持たない。
本稿では,複雑なToMタスクにおけるモデル性能を改善するLLMベースの推論アルゴリズムであるDecompose-ToM'を提案する。
論文 参考訳(メタデータ) (2025-01-15T18:44:01Z) - Explore Theory of Mind: Program-guided adversarial data generation for theory of mind reasoning [88.68573198200698]
本研究では,多様で挑戦的な心的データ理論を大規模に生成するための最初のフレームワークであるExploreToMを紹介する。
我々のアプローチは、A*検索をカスタムドメイン特化言語に利用して、複雑なストーリ構造と、新しく、多様だが、もっともらしいシナリオを生成します。
評価の結果,Llama-3.1-70B や GPT-4o などの最先端 LLM はExploreToM 生成データに対して0%,9% の精度を示した。
論文 参考訳(メタデータ) (2024-12-12T21:29:00Z) - NegotiationToM: A Benchmark for Stress-testing Machine Theory of Mind on Negotiation Surrounding [55.38254464415964]
現在、マインド評価の理論は、機械生成データやゲーム設定を用いたテストモデルに焦点を合わせており、ショートカットや素早い相関が生じる傾向にある。
我々は,多次元精神状態を取り巻く実世界の交渉において,ストレステストマシンToMのための新しいベンチマークであるNegotiationToMを紹介する。
論文 参考訳(メタデータ) (2024-04-21T11:51:13Z) - MMToM-QA: Multimodal Theory of Mind Question Answering [80.87550820953236]
心の理論 (ToM) は人間レベルの社会知能を持つ機械を開発する上で不可欠な要素である。
最近の機械学習モデル、特に大きな言語モデルは、ToM理解のいくつかの側面を示しているようだ。
一方、ヒューマンToMはビデオやテキストの理解以上のものです。
人は、利用可能なデータから抽出された概念的表現に基づいて、他人の心について柔軟に推論することができる。
論文 参考訳(メタデータ) (2024-01-16T18:59:24Z) - Think Twice: Perspective-Taking Improves Large Language Models'
Theory-of-Mind Capabilities [63.90227161974381]
SimToMは、シミュレーション理論の視点取りの概念にインスパイアされた、新しいプロンプトフレームワークである。
我々のアプローチは、追加のトレーニングや最小限のプロンプトチューニングを必要とせず、既存の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-16T22:49:27Z) - Minding Language Models' (Lack of) Theory of Mind: A Plug-and-Play
Multi-Character Belief Tracker [72.09076317574238]
ToMは,読解における文字の信念状態を調べるためのプラグアンドプレイ方式である。
ToMは、教師付きベースラインと比較して、配電性能が堅牢でありながら、ゼロオーダー設定でのオフ・ザ・シェルフニューラルネットワーク理論の考え方を強化する。
論文 参考訳(メタデータ) (2023-06-01T17:24:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。