論文の概要: The purpose of qualia: What if human thinking is not (only) information
processing?
- arxiv url: http://arxiv.org/abs/2212.00800v2
- Date: Tue, 6 Dec 2022 12:35:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 13:00:28.037241
- Title: The purpose of qualia: What if human thinking is not (only) information
processing?
- Title(参考訳): qualiaの目的は:もし人間の思考が(単に)情報処理ではないとしたら?
- Authors: Martin Korth
- Abstract要約: ナチュラルインテリジェンス(NI)は、意識、意図、およびクエーリアのような経験的特徴と密接に関連している。
心理学者は、NIは無意識の心理的プロセスから集中的な情報処理まで幅広いものであると考えている。
NIは、データ感覚の情報の代わりに「意味のビット」を操作することによって、神経生物学的機能主義を超越しているようだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite recent breakthroughs in the field of artificial intelligence (AI) -
or more specifically machine learning (ML) algorithms for object recognition
and natural language processing - it seems to be the majority view that current
AI approaches are still no real match for natural intelligence (NI). More
importantly, philosophers have collected a long catalogue of features which
imply that NI works differently from current AI not only in a gradual sense,
but in a more substantial way: NI is closely related to consciousness,
intentionality and experiential features like qualia (the subjective contents
of mental states) and allows for understanding (e.g., taking insight into
causal relationships instead of 'blindly' relying on correlations), as well as
aesthetical and ethical judgement beyond what we can put into (explicit or
data-induced implicit) rules to program machines with. Additionally,
Psychologists find NI to range from unconscious psychological processes to
focused information processing, and from embodied and implicit cognition to
'true' agency and creativity. NI thus seems to transcend any neurobiological
functionalism by operating on 'bits of meaning' instead of information in the
sense of data, quite unlike both the 'good old fashioned', symbolic AI of the
past, as well as the current wave of deep neural network based, 'sub-symbolic'
AI, which both share the idea of thinking as (only) information processing. In
the following I propose an alternative view of NI as information processing
plus 'bundle pushing', discuss an example which illustrates how bundle pushing
can cut information processing short, and suggest first ideas for scientific
experiments in neuro-biology and information theory as further investigations.
- Abstract(参考訳): 最近の人工知能(ai)分野のブレークスルー、具体的には、オブジェクト認識と自然言語処理のための機械学習(ml)アルゴリズムにもかかわらず、現在のaiアプローチは依然として自然知能(ni)に当てはまらないという見解が有力である。
More importantly, philosophers have collected a long catalogue of features which imply that NI works differently from current AI not only in a gradual sense, but in a more substantial way: NI is closely related to consciousness, intentionality and experiential features like qualia (the subjective contents of mental states) and allows for understanding (e.g., taking insight into causal relationships instead of 'blindly' relying on correlations), as well as aesthetical and ethical judgement beyond what we can put into (explicit or data-induced implicit) rules to program machines with.
さらに心理学者は、niは無意識の心理的プロセスから集中した情報処理、具体化や暗黙の認知から「真の」機関や創造性まで幅広いものを見出している。
このようにniは、データの意味での情報ではなく「意味のビット」で操作することで、神経生物学的機能主義を超越しているように見えるが、過去の「古き良き」、象徴的なai、そして現在のディープニューラルネットワークに基づく「サブシンボリック」aiの波とは全く異なる。
以下では、情報処理+「束押し」としてのniの代替的視点を提案し、バンドルプッシュが情報処理を短く削減できることを示す例を示し、神経生物学および情報理論における科学的実験の最初のアイデアを更なる研究として提案する。
関連論文リスト
- Formal Explanations for Neuro-Symbolic AI [28.358183683756028]
本稿では,ニューロシンボリックシステムの決定を説明するための公式なアプローチを提案する。
これはまず、説明が必要な神経情報の個々の部分のサブセットを特定するのに役立つ。
これに続いて、階層的な形式的な説明の簡潔さを促進するために、互いに独立して、これらの個々の神経入力のみを説明する。
論文 参考訳(メタデータ) (2024-10-18T07:08:31Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Psychology of Artificial Intelligence: Epistemological Markers of the Cognitive Analysis of Neural Networks [0.0]
アシモフが1950年に予言した人工知能の心理学は、このAIの探索と説明可能性に敏感な物質の研究を目的としている。
後者を調べるための前提条件は、その現象学に起因する認知状態に関するいくつかのマイルストーンを明らかにすることである。
論文 参考訳(メタデータ) (2024-07-04T12:53:05Z) - Metacognitive AI: Framework and the Case for a Neurosymbolic Approach [5.5441283041944]
我々は、TRAPと呼ばれるメタ認知人工知能(AI)を理解するための枠組みを導入する。
我々は、これらの局面のそれぞれについて議論し、メタ認知の課題に対処するために、ニューロシンボリックAI(NSAI)をどのように活用できるかを探求する。
論文 参考訳(メタデータ) (2024-06-17T23:30:46Z) - Post-hoc and manifold explanations analysis of facial expression data based on deep learning [4.586134147113211]
本稿では、ニューラルネットワークが顔の表情データを処理し、保存し、それらと人間の心理的属性を関連づける方法について検討する。
研究者たちはディープラーニングモデルVGG16を利用して、ニューラルネットワークが顔データの主要な特徴を学習し、再現できることを実証した。
実験結果は、人間の感情や認知過程を理解するための深層学習モデルの可能性を明らかにした。
論文 参考訳(メタデータ) (2024-04-29T01:19:17Z) - What should I say? -- Interacting with AI and Natural Language
Interfaces [0.0]
HAI(Human-AI Interaction)サブフィールドは、HCI(Human-Computer Interaction)フィールドから生まれ、この概念を検証することを目的としている。
以前の研究では、マインド表現の理論は成功と努力の無いコミュニケーションに不可欠であると示唆されていたが、AIと対話する際にマインド表現の理論が確立されるという点に関しては、ほとんど理解されていない。
論文 参考訳(メタデータ) (2024-01-12T05:10:23Z) - Neuro-Symbolic Learning of Answer Set Programs from Raw Data [54.56905063752427]
Neuro-Symbolic AIは、シンボリックテクニックの解釈可能性と、生データから学ぶ深層学習の能力を組み合わせることを目的としている。
本稿では,ニューラルネットワークを用いて生データから潜在概念を抽出するNSIL(Neuro-Symbolic Inductive Learner)を提案する。
NSILは表現力のある知識を学習し、計算的に複雑な問題を解き、精度とデータ効率の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T12:41:59Z) - From Psychological Curiosity to Artificial Curiosity: Curiosity-Driven
Learning in Artificial Intelligence Tasks [56.20123080771364]
心理学的好奇心は、探索と情報取得を通じて学習を強化するために、人間の知性において重要な役割を果たす。
人工知能(AI)コミュニティでは、人工好奇心は効率的な学習に自然な本質的な動機を与える。
CDLはますます人気を博し、エージェントは新たな知識を学習するために自己動機付けされている。
論文 参考訳(メタデータ) (2022-01-20T17:07:03Z) - AGENT: A Benchmark for Core Psychological Reasoning [60.35621718321559]
直観心理学は、観察可能な行動を駆動する隠された精神変数を推論する能力です。
他のエージェントを推論する機械エージェントに対する近年の関心にもかかわらず、そのようなエージェントが人間の推論を駆動するコア心理学の原則を学ぶか保持するかは明らかではない。
本稿では,プロシージャが生成する3dアニメーション,エージェントを4つのシナリオで構成したベンチマークを提案する。
論文 参考訳(メタデータ) (2021-02-24T14:58:23Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Dark, Beyond Deep: A Paradigm Shift to Cognitive AI with Humanlike
Common Sense [142.53911271465344]
我々は、次世代のAIは、新しいタスクを解決するために、人間のような「暗黒」の常識を取り入れなければならないと論じている。
我々は、人間のような常識を持つ認知AIの5つの中核領域として、機能、物理学、意図、因果性、実用性(FPICU)を識別する。
論文 参考訳(メタデータ) (2020-04-20T04:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。