論文の概要: Visual Categorization Across Minds and Models: Cognitive Analysis of Human Labeling and Neuro-Symbolic Integration
- arxiv url: http://arxiv.org/abs/2512.09340v1
- Date: Wed, 10 Dec 2025 05:58:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.410373
- Title: Visual Categorization Across Minds and Models: Cognitive Analysis of Human Labeling and Neuro-Symbolic Integration
- Title(参考訳): 心とモデル全体での視覚分類:人間のラベル付けとニューロ・シンボリック統合の認知分析
- Authors: Chethana Prasad Kabgere,
- Abstract要約: 本稿では,ヒトと深部ニューラルネットワーク間の画像ラベリング性能について検討する。
我々は、類似推論、形状に基づく認識、信頼度変調といった人間の戦略とAIの機能ベースの処理とを対比する。
本研究は, 生体・人工システムの表現, 推論, 信頼性校正における重要な並列性と相違点を明らかにする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Understanding how humans and AI systems interpret ambiguous visual stimuli offers critical insight into the nature of perception, reasoning, and decision-making. This paper examines image labeling performance across human participants and deep neural networks, focusing on low-resolution, perceptually degraded stimuli. Drawing from computational cognitive science, cognitive architectures, and connectionist-symbolic hybrid models, we contrast human strategies such as analogical reasoning, shape-based recognition, and confidence modulation with AI's feature-based processing. Grounded in Marr's tri-level hypothesis, Simon's bounded rationality, and Thagard's frameworks of representation and emotion, we analyze participant responses in relation to Grad-CAM visualizations of model attention. Human behavior is further interpreted through cognitive principles modeled in ACT-R and Soar, revealing layered and heuristic decision strategies under uncertainty. Our findings highlight key parallels and divergences between biological and artificial systems in representation, inference, and confidence calibration. The analysis motivates future neuro-symbolic architectures that unify structured symbolic reasoning with connectionist representations. Such architectures, informed by principles of embodiment, explainability, and cognitive alignment, offer a path toward AI systems that are not only performant but also interpretable and cognitively grounded.
- Abstract(参考訳): 人間とAIシステムがあいまいな視覚刺激をどのように解釈するかを理解することは、知覚、推論、意思決定の本質に関する重要な洞察を与える。
本稿では,低分解能,知覚的劣化刺激に着目し,ヒトと深層ニューラルネットワーク間の画像ラベリング性能について検討する。
計算認知科学、認知アーキテクチャ、コネクショナリスト-シンボリックハイブリッドモデルから引き起こし、類似推論、形状に基づく認識、信頼度変調といった人間の戦略とAIの機能ベースの処理とを対比する。
マーの3段階仮説、サイモンの有界有理性、タガードの表現と感情の枠組みを基礎として、モデル注意のGrad-CAMビジュアライゼーションに関連する応答を解析する。
人間行動はACT-RとSoarでモデル化された認知原則を通じてさらに解釈され、不確実性の下で階層化されヒューリスティックな決定戦略を明らかにする。
本研究は, 生体・人工システムの表現, 推論, 信頼性校正における重要な並列性と相違点を明らかにする。
この分析は、構造的シンボリック推論とコネクショナリズム表現を統一する未来のニューロシンボリックアーキテクチャを動機付けている。
このようなアーキテクチャは、具現化の原則、説明可能性、認知的整合性によって知らされ、パフォーマンスだけでなく、解釈可能で認知的に根ざしたAIシステムへの道を提供する。
関連論文リスト
- One Model, Two Minds: A Context-Gated Graph Learner that Recreates Human Biases [3.7958475517455947]
本稿では認知科学の二重過程理論に触発された新しい心の理論(ToM)フレームワークを紹介する。
我々のモデルは、学習された文脈ゲート機構を通して直観的で熟考的な推論のバランスをとる。
この研究は人工知能と認知理論を橋渡しし、曖昧で人間らしい社会的認知と適応的な意思決定能力を示すAIシステムへの道を開く。
論文 参考訳(メタデータ) (2025-09-10T15:55:14Z) - Model-Grounded Symbolic Artificial Intelligence Systems Learning and Reasoning with Model-Grounded Symbolic Artificial Intelligence Systems [7.000073566770884]
ニューロシンボリック人工知能(AI)システムは、ニューラルネットワークと古典的なシンボリックAIメカニズムを組み合わせたシステムである。
従来の学習や推論のパラダイムと構造的類似性を維持する新しい学習・推論手法を開発した。
論文 参考訳(メタデータ) (2025-07-14T01:34:05Z) - Grounding Agent Reasoning in Image Schemas: A Neurosymbolic Approach to Embodied Cognition [12.269231280154482]
本稿では,認知理論とエージェントシステムを橋渡しする新しい枠組みを提案する。
我々は、エージェントの基本的な概念構造に対する理解を基盤として、ニューロシンボリックシステムを構築することができるだろう。
論文 参考訳(メタデータ) (2025-03-31T14:01:39Z) - A Cognitive Paradigm Approach to Probe the Perception-Reasoning Interface in VLMs [3.2228025627337864]
本稿では,視覚言語モデル(VLM)における知覚推論インタフェースを識別するための構造化評価フレームワークを提案する。
本稿では,人間の問題解決戦略を反映した3つの評価パラダイムを提案する。
このフレームワークを適用したCAは、リッチで独立に生成された記述を推論するために強力な言語モデルを活用し、新しい最先端(SOTA)パフォーマンスを実現することを実証する。
論文 参考訳(メタデータ) (2025-01-23T12:42:42Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Discrete, compositional, and symbolic representations through attractor dynamics [51.20712945239422]
我々は,思考の確率的言語(PLoT)に似た認知過程をモデル化するために,アトラクタダイナミクスを記号表現と統合した新しいニューラルシステムモデルを導入する。
我々のモデルは、連続表現空間を、事前定義されたプリミティブに頼るのではなく、教師なし学習を通じて、記号系の意味性と構成性の特徴を反映する、記号列に対応する引き付け状態を持つ離散盆地に分割する。
このアプローチは、認知操作の複雑な双対性を反映したより包括的なモデルを提供する、AIにおける表現力の証明された神経弁別可能な基質であるニューラルダイナミクスを通じて、シンボル処理とサブシンボル処理の両方を統合する統一的なフレームワークを確立する。
論文 参考訳(メタデータ) (2023-10-03T05:40:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。