論文の概要: Spontaneous High-Order Generalization in Neural Theory-of-Mind Networks
- arxiv url: http://arxiv.org/abs/2509.25343v1
- Date: Mon, 29 Sep 2025 18:01:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.253474
- Title: Spontaneous High-Order Generalization in Neural Theory-of-Mind Networks
- Title(参考訳): ニューラル・オブ・ミンド・ネットワークにおける自然高次一般化
- Authors: Yiming Wang, Rui Wang,
- Abstract要約: 理論・オブ・ミンド(Theory-of-Mind、ToM)は、精神状態が自己や他者に帰属する中核的な人間の認知能力である。
ニューラルネットワークは、高度なスキルに頼ることなく、一階から高階までのToMを自然に一般化できることを示す。
- 参考スコア(独自算出の注目度): 7.4056206470860415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Theory-of-Mind (ToM) is a core human cognitive capacity for attributing mental states to self and others. Wimmer and Perner demonstrated that humans progress from first- to higher-order ToM within a short span, completing this development before formal education or advanced skill acquisition. In contrast, neural networks represented by autoregressive language models progress from first- to higher-order ToM only alongside gains in advanced skills like reasoning, leaving open whether their trajectory can unfold independently, as in humans. In this research, we provided evidence that neural networks could spontaneously generalize from first- to higher-order ToM without relying on advanced skills. We introduced a neural Theory-of-Mind network (ToMNN) that simulated a minimal cognitive system, acquiring only first-order ToM competence. Evaluations of its second- and third-order ToM abilities showed accuracies well above chance. Also, ToMNN exhibited a sharper decline when generalizing from first- to second-order ToM than from second- to higher orders, and its accuracy decreased with greater task complexity. These perceived difficulty patterns were aligned with human cognitive expectations. Furthermore, the universality of results was confirmed across different parameter scales. Our findings illuminate machine ToM generalization patterns and offer a foundation for developing more human-like cognitive systems.
- Abstract(参考訳): 理論・オブ・ミンド(Theory-of-Mind、ToM)は、精神状態が自己や他者に帰属する中核的な人間の認知能力である。
WimmerとPernerは、人間が短期間で第一級から上位のToMへと進歩し、正式な教育や高度な技術習得の前にこの開発を完了したことを実証した。
対照的に、自己回帰言語モデルで表現されるニューラルネットワークは、推論のような高度なスキルの獲得と並行して、人間のように、その軌道が独立して展開できるかどうかをオープンにしておくことで、一階から高階に進化する。
本研究では,ニューラルネットワークが高度な技術に頼ることなく,一階から高階までのToMを自然に一般化できることを示す。
我々は、最小限の認知システムをシミュレートするニューラルネットワーク(ToMNN)を導入し、一階のToM能力しか獲得できなかった。
2階と3階のToM能力の評価は、精度がかなり上回った。
また,ToMNNでは,第1次から第2次までのToMを,第2次から第2次までのToMを一般化すると,タスクの複雑さが増して精度が低下した。
これらの困難パターンは、人間の認知的期待と一致していた。
さらに,異なるパラメータ尺度で結果の普遍性を確認した。
そこで本研究では,機械のToM一般化パターンを照らし,より人間的な認知システムを構築するための基盤を提供する。
関連論文リスト
- Bridging the behavior-neural gap: A multimodal AI reveals the brain's geometry of emotion more accurately than human self-reports [18.336392633341493]
大規模な類似性判定は、脳の感情幾何学をより忠実に捉えることができることを示す。
MLLMは、リッチで神経に適応した感情表現を自律的に開発できるという、説得力のある証拠を提供する。
論文 参考訳(メタデータ) (2025-09-29T05:22:33Z) - Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
神経科学とAIの両方では、ニューロン間の'バインディング'が、ネットワークの深い層においてより抽象的な概念を表現するために表現を圧縮する、競争的な学習の形式につながることが知られている。
完全に接続された畳み込みや注意機構などの任意の接続設計とともに人工的再考を導入する。
このアイデアは、教師なしオブジェクト発見、敵対的ロバスト性、不確実性、定量化、推論など、幅広いタスクにわたるパフォーマンス改善を提供する。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Explicit Modelling of Theory of Mind for Belief Prediction in Nonverbal Social Interactions [9.318796743761224]
マルチモーダル入力から人間の社会的相互作用における信念とそのダイナミクスを予測するための、心の理論(ToM)ニューラルネットワークであるMToMnetを提案する。
MToMnetはコンテキストキューを符号化し、個人固有のキュー(人間の視線とボディランゲージ)を、それぞれ個別のMindNetに統合する。
以上の結果から,MToMnetは既存の手法をはるかに上回り,同時にパラメータも大幅に少なくなることが明らかとなった。
論文 参考訳(メタデータ) (2024-07-09T11:15:51Z) - Sphere Neural-Networks for Rational Reasoning [24.591858077975548]
ベクトルから球面への計算ビルディングブロックの一般化による新しい拡張を提案する。
モデル構築と検査を通して人間のような推論を行うための球ニューラルネット(SphNN)を提案する。
SphNNは、合理性-時間的推論、否定と解離を伴う論理的推論、イベント推論、ニューロシンボリック統一、ユーモア理解など、様々なタイプの推論に進化することができる。
論文 参考訳(メタデータ) (2024-03-22T15:44:59Z) - Neuro-mimetic Task-free Unsupervised Online Learning with Continual
Self-Organizing Maps [56.827895559823126]
自己組織化マップ(英: Self-organizing map、SOM)は、クラスタリングや次元減少によく用いられるニューラルネットワークモデルである。
低メモリ予算下でのオンライン教師なし学習が可能なSOM(連続SOM)の一般化を提案する。
MNIST, Kuzushiji-MNIST, Fashion-MNISTなどのベンチマークでは, ほぼ2倍の精度が得られた。
論文 参考訳(メタデータ) (2024-02-19T19:11:22Z) - Think Twice: Perspective-Taking Improves Large Language Models'
Theory-of-Mind Capabilities [63.90227161974381]
SimToMは、シミュレーション理論の視点取りの概念にインスパイアされた、新しいプロンプトフレームワークである。
我々のアプローチは、追加のトレーニングや最小限のプロンプトチューニングを必要とせず、既存の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-16T22:49:27Z) - COKE: A Cognitive Knowledge Graph for Machine Theory of Mind [87.14703659509502]
心の理論(りょうせい、英: Theory of Mind)とは、他者の欲求、信念、意図を理解し、推測する人間の能力のこと。
COKEは、心の機械理論のための最初の認知知識グラフである。
論文 参考訳(メタデータ) (2023-05-09T12:36:58Z) - Neural Theory-of-Mind? On the Limits of Social Intelligence in Large LMs [77.88043871260466]
私たちは、今日の最大の言語モデルのひとつに、このようなソーシャルインテリジェンスを最初から欠いていることを示しています。
我々は、人中心のNLPアプローチは、マインドの神経理論に対してより効果的であるかもしれないと結論づける。
論文 参考訳(メタデータ) (2022-10-24T14:58:58Z) - Recognizing and Verifying Mathematical Equations using Multiplicative
Differential Neural Units [86.9207811656179]
メモリ拡張ニューラルネットワーク(NN)は、高次、メモリ拡張外挿、安定した性能、より高速な収束を実現することができることを示す。
本モデルでは,現在の手法と比較して1.53%の精度向上を達成し,2.22%のtop-1平均精度と2.96%のtop-5平均精度を達成している。
論文 参考訳(メタデータ) (2021-04-07T03:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。