論文の概要: All You Need is Sally-Anne: ToM in AI Strongly Supported After Surpassing Tests for 3-Year-Olds
- arxiv url: http://arxiv.org/abs/2503.24215v1
- Date: Mon, 31 Mar 2025 15:32:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:36:20.494037
- Title: All You Need is Sally-Anne: ToM in AI Strongly Supported After Surpassing Tests for 3-Year-Olds
- Title(参考訳): Sally-Anne:AIのToMが3歳児のテストに合格
- Authors: Nitay Alon, Joseph Barnby, Reuth Mirsky, Stefan Sarkadi,
- Abstract要約: 心の理論 (Theory of Mind, ToM) は人間の認知の目印であり、個人が他人の信念や意図について考えることを可能にする。
人工知能(AI)の最近の進歩は、同等の機能を示している。
本稿では,3歳児を対象とした従来のToMテストを超えるモデルを提案する。
- 参考スコア(独自算出の注目度): 3.2736287715813996
- License:
- Abstract: Theory of Mind (ToM) is a hallmark of human cognition, allowing individuals to reason about others' beliefs and intentions. Engineers behind recent advances in Artificial Intelligence (AI) have claimed to demonstrate comparable capabilities. This paper presents a model that surpasses traditional ToM tests designed for 3-year-old children, providing strong support for the presence of ToM in AI systems.
- Abstract(参考訳): 心の理論 (Theory of Mind, ToM) は人間の認知の目印であり、個人が他人の信念や意図について考えることを可能にする。
最近のAI(Artificial Intelligence)の進歩を支えるエンジニアたちは、同等の能力を誇示している。
本稿では,3歳児を対象とした従来のToMテストを超え,AIシステムにおけるToMの存在を強く支援するモデルを提案する。
関連論文リスト
- The Imitation Game According To Turing [0.0]
近年の研究では、大規模言語モデル(LLM)が1950年代からAIの目標であるチューリングテストに合格できると主張している。
GPT-4-Turbo を用いた厳密なチューリングテストを行い,チューリングの指示に忠実に固執した。
LLMを正しく特定したのは1人以外で、今日の最も先進的なLLMの1つが厳格なチューリングテストに合格できないことを示している。
論文 参考訳(メタデータ) (2025-01-29T13:08:17Z) - The Einstein Test: Towards a Practical Test of a Machine's Ability to Exhibit Superintelligence [1.9608359347635138]
我々は、CDIを作成する能力は、マシン超知能の重要な特徴とみなすべきであると論じている。
本稿では,SIを対象とするAIへのアプローチが,このような新たな洞察を得られるかどうかを評価するための実践的テストを提案する。
論文 参考訳(メタデータ) (2025-01-12T21:55:04Z) - Formal Mathematical Reasoning: A New Frontier in AI [60.26950681543385]
我々は公式な数学的推論を提唱し、AI4Mathを次のレベルに進めるには不可欠であると主張している。
既存の進捗を要約し、オープンな課題について議論し、将来の成功を測るための重要なマイルストーンを想定します。
論文 参考訳(メタデータ) (2024-12-20T17:19:24Z) - Evaluating Large Vision-and-Language Models on Children's Mathematical Olympiads [74.54183505245553]
ジョイントビジョンとテキスト推論のためのAI能力の体系的分析は、現在の科学文献に欠けている。
我々は,子どものオリンピアードからのビジュオ言語問題を用いて,その数学的およびアルゴリズム的推論能力に基づいて,最先端のLVLMを評価した。
以上の結果から,近代のLVLMは,高学年の問題解決において,より強力な推論能力を示す一方で,幼児向けの問題に正しく答える基盤が欠如していることが示唆された。
論文 参考訳(メタデータ) (2024-06-22T05:04:39Z) - Children's Mental Models of Generative Visual and Text Based AI Models [0.027961972519572442]
5-12歳の子どもたちは、テキストベースのLLMs ChatGPTやビジュアルベースのDALL-Eのような生成AIモデルを知覚し、理解し、使用します。
子どもたちは一般的に、AIに対して非常に肯定的な見通しを持ち、AIが日々の生活に利益をもたらし、支援する方法に興奮しています。
これらの発見が、子どものメンタルなAIモデルに光を当て、必然的にAIを生かしている子供たちに最適なツールを設計するための洞察を与えてくれることを期待しています。
論文 参考訳(メタデータ) (2024-05-21T06:18:00Z) - Spontaneous Theory of Mind for Artificial Intelligence [2.7624021966289605]
我々は、AIマインド理論(ToM)の研究・開発における原則的アプローチを論じる。
我々は、強い、あるいは一般のAISが、テキストに反応し、自発的に社会的推論を行うよう提案する。
論文 参考訳(メタデータ) (2024-02-16T22:41:13Z) - Bootstrapping Developmental AIs: From Simple Competences to Intelligent
Human-Compatible AIs [0.0]
主流のAIアプローチは、大きな言語モデル(LLM)による生成的および深層学習アプローチと、手動で構築されたシンボリックアプローチである。
このポジションペーパーでは、開発AIの実践を拡張して、レジリエンスでインテリジェントで、人間と互換性のあるAIを作り出すための、展望、ギャップ、課題を概説する。
論文 参考訳(メタデータ) (2023-08-08T21:14:21Z) - Clever Hans or Neural Theory of Mind? Stress Testing Social Reasoning in
Large Language Models [82.50173296858377]
多くの逸話例は、ChatGPTやGPT-4のような新しい大規模言語モデル(LLM)が、N-ToM(Neural Theory-of-Mind)を示すことを示唆するために使用された。
我々は,LLMsのN-ToMの範囲を6つのタスクに対して広範囲に評価することにより検討し,LLMsが特定のN-ToM能力を示す一方で,この挙動は堅牢性には程遠いことを見出した。
論文 参考訳(メタデータ) (2023-05-24T06:14:31Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。