論文の概要: Consciousness in Artificial Intelligence: Insights from the Science of
Consciousness
- arxiv url: http://arxiv.org/abs/2308.08708v1
- Date: Thu, 17 Aug 2023 00:10:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 18:35:00.985250
- Title: Consciousness in Artificial Intelligence: Insights from the Science of
Consciousness
- Title(参考訳): 人工知能における意識:意識科学からの洞察
- Authors: Patrick Butlin, Robert Long, Eric Elmoznino, Yoshua Bengio, Jonathan
Birch, Axel Constant, George Deane, Stephen M. Fleming, Chris Frith, Xu Ji,
Ryota Kanai, Colin Klein, Grace Lindsay, Matthias Michel, Liad Mudrik, Megan
A. K. Peters, Eric Schwitzgebel, Jonathan Simon, Rufin VanRullen
- Abstract要約: このレポートは、AI意識に対する厳密で実証的なアプローチを主張し、実証している。
我々は、反復処理理論、グローバルワークスペース理論、高次理論、予測処理、注意スキーマ理論など、意識に関するいくつかの顕著な科学的理論を調査した。
私たちの分析は、現在のAIシステムが意識的でないことを示唆していますが、意識的なAIシステムを構築するための明らかな障壁がないことも示しています。
- 参考スコア(独自算出の注目度): 31.991243430962054
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Whether current or near-term AI systems could be conscious is a topic of
scientific interest and increasing public concern. This report argues for, and
exemplifies, a rigorous and empirically grounded approach to AI consciousness:
assessing existing AI systems in detail, in light of our best-supported
neuroscientific theories of consciousness. We survey several prominent
scientific theories of consciousness, including recurrent processing theory,
global workspace theory, higher-order theories, predictive processing, and
attention schema theory. From these theories we derive "indicator properties"
of consciousness, elucidated in computational terms that allow us to assess AI
systems for these properties. We use these indicator properties to assess
several recent AI systems, and we discuss how future systems might implement
them. Our analysis suggests that no current AI systems are conscious, but also
shows that there are no obvious barriers to building conscious AI systems.
- Abstract(参考訳): 現在または近い将来のaiシステムが意識されるかどうかは、科学的な関心と公衆の関心の高まりのトピックである。
このレポートは、AI意識に対する厳密で実証的なアプローチ、すなわち既存のAIシステムを詳細に評価し、私たちの最も支持された意識の神経科学理論を考慮し、それを実証している。
我々は,リカレント処理理論,グローバルワークスペース理論,高次理論,予測処理,注意スキーマ理論など,いくつかの著名な科学的意識理論を調査した。
これらの理論から、これらの特性に対してAIシステムを評価することができる計算用語で解明された意識の「指標特性」を導出する。
これらの指標特性を最近のAIシステムの評価に利用し、将来のシステムがどのように実装されるかについて議論する。
私たちの分析は、現在のAIシステムが意識的でないことを示唆していますが、意識的なAIシステムを構築するための明らかな障壁がないことも示しています。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - A Case for AI Consciousness: Language Agents and Global Workspace Theory [0.0]
広く実装されている1つのAIアーキテクチャ、すなわち人工言語エージェントの例は、もしまだそうでなければ、驚くほど意識的にできるかもしれない、と我々は主張する。
その過程で、意識の科学的理論を人工システムに適用する方法を考えるための明確な方法論を述べる。
論文 参考訳(メタデータ) (2024-10-15T08:50:45Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Is artificial consciousness achievable? Lessons from the human brain [0.0]
進化の観点から,人工意識の発達に関する問題を分析する。
我々は、人間の脳の進化と、その意識との関係を参照モデルとして捉えている。
我々は,AIの認知処理における共通点と,人間の意識経験との違いを明確にすることを提案する。
論文 参考訳(メタデータ) (2024-04-18T12:59:44Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Advancing Perception in Artificial Intelligence through Principles of
Cognitive Science [6.637438611344584]
我々は、周囲の信号を入力として取り、それを処理して環境を理解する、知覚の認知機能に焦点を当てる。
我々は、認知科学にインスパイアされたAIシステムを構築するために、AIに一連の方法を提案する。
論文 参考訳(メタデータ) (2023-10-13T01:21:55Z) - Suffering Toasters -- A New Self-Awareness Test for AI [0.0]
現在のインテリジェンステストはすべて、インテリジェンスの存在や欠如を示すには不十分である、と我々は主張する。
人工自己認識のための新しい手法を提案し,その実装の概要を述べる。
論文 参考訳(メタデータ) (2023-06-29T18:58:01Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - BIASeD: Bringing Irrationality into Automated System Design [12.754146668390828]
我々は、人間と機械のコラボレーションの未来は、人間の認知バイアスをモデル化し、理解し、おそらく複製するAIシステムの開発を必要とすると主張している。
我々は、AIシステムの観点から既存の認知バイアスを分類し、3つの幅広い関心領域を特定し、私たちのバイアスをよりよく理解するAIシステムの設計のための研究の方向性を概説する。
論文 参考訳(メタデータ) (2022-10-01T02:52:38Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。