論文の概要: Applying Deutsch's concept of good explanations to artificial
intelligence and neuroscience -- an initial exploration
- arxiv url: http://arxiv.org/abs/2012.09318v2
- Date: Thu, 24 Dec 2020 23:06:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 03:04:38.308654
- Title: Applying Deutsch's concept of good explanations to artificial
intelligence and neuroscience -- an initial exploration
- Title(参考訳): 人工知能と神経科学へのDeutschの優れた説明を応用する -- 最初の調査
- Authors: Daniel C. Elton
- Abstract要約: 深層学習におけるドイツの難しい原則と、より形式化された原則とどのように関連しているかを調査します。
私たちは、人間の脳を見ることで、知能でどのように難しい説明が果たす役割を見ます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence has made great strides since the deep learning
revolution, but AI systems still struggle to extrapolate outside of their
training data and adapt to new situations. For inspiration we look to the
domain of science, where scientists have been able to develop theories which
show remarkable ability to extrapolate and sometimes predict the existence of
phenomena which have never been observed before. According to David Deutsch,
this type of extrapolation, which he calls "reach", is due to scientific
theories being hard to vary. In this work we investigate Deutsch's hard-to-vary
principle and how it relates to more formalized principles in deep learning
such as the bias-variance trade-off and Occam's razor. We distinguish internal
variability, how much a model/theory can be varied internally while still
yielding the same predictions, with external variability, which is how much a
model must be varied to accurately predict new, out-of-distribution data. We
discuss how to measure internal variability using the size of the Rashomon set
and how to measure external variability using Kolmogorov complexity. We explore
what role hard-to-vary explanations play in intelligence by looking at the
human brain and distinguish two learning systems in the brain. The first system
operates similar to deep learning and likely underlies most of perception and
motor control while the second is a more creative system capable of generating
hard-to-vary explanations of the world. We argue that figuring out how
replicate this second system, which is capable of generating hard-to-vary
explanations, is a key challenge which needs to be solved in order to realize
artificial general intelligence. We make contact with the framework of
Popperian epistemology which rejects induction and asserts that knowledge
generation is an evolutionary process which proceeds through conjecture and
refutation.
- Abstract(参考訳): 人工知能はディープラーニング革命以来、大きな進歩を遂げてきたが、AIシステムはトレーニングデータの外部への露出と新しい状況への適応に苦戦している。
科学者は、これまで観測されたことのない現象の存在を外挿し、時には予測する驚くべき能力を示す理論を開発できた。
デビッド・ドイッチュ(David Deutsch)によれば、この種の外挿は「リーチ」と呼ばれ、科学的理論が変化しにくいためである。
本研究では,Deutschの難易度原理と,バイアス分散トレードオフやOccam's razorといった深層学習におけるより形式化された原則との関連について検討する。
我々は、モデル/理論が内部的にどの程度変化しても、同じ予測を得られるか、外部変数と区別し、新しい非分布データを正確に予測するために、モデルがどの程度変化する必要があるかを示す。
本稿では,ラショモン集合の大きさを用いた内部変動量の測定方法とコルモゴロフ複雑性を用いた外部変動量の測定方法について述べる。
人間の脳を見て、脳内の2つの学習システムを区別することで、知性において困難な説明が果たす役割を探求する。
第1のシステムはディープラーニングと似ていて、知覚と運動制御のほとんどを基盤としており、第2のシステムはより創造的なシステムであり、世界の難しい説明を生成できる。
我々は、この第2のシステムがいかに多変量説明を生成することができるかを理解することは、人工知能を実現するために解決すべき重要な課題であると主張している。
帰納を拒絶するポペル認識論の枠組みに接触し、知識の生成は予想と反論を通じて進行する進化過程であると主張する。
関連論文リスト
- A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - Grid-SD2E: A General Grid-Feedback in a System for Cognitive Learning [0.5221459608786241]
この研究は、より汎用的で堅牢なグリッドモジュールを作成する際に、グリッドセルから部分的にインスピレーションを受けている。
我々はベイジアン推論とともに対話的かつ自己強化型認知システムを構築した。
最小の計算ユニットが抽出され、脳内の1つのニューロンに類似している。
論文 参考訳(メタデータ) (2023-04-04T14:54:12Z) - Observing Interventions: A logic for thinking about experiments [62.997667081978825]
本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
論文 参考訳(メタデータ) (2021-11-25T09:26:45Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Scientific intuition inspired by machine learning generated hypotheses [2.294014185517203]
私たちは、機械学習モデル自体が得る洞察と知識に焦点を移します。
決定木では, 化学や物理から, ビッグデータから人間の解釈可能な洞察を抽出するために, 勾配増進法を適用した。
数値を超える能力は、機械学習を使って概念理解の発見を加速する扉を開く。
論文 参考訳(メタデータ) (2020-10-27T12:12:12Z) - Understanding understanding: a renormalization group inspired model of
(artificial) intelligence [0.0]
本稿では,科学的および人工知能システムにおける理解の意味について述べる。
理解の数学的定義を与え、共通知恵とは対照的に、入力集合上の確率空間を定義する。
この枠組みに科学的理解がどのように適合するかを示し、科学的課題とパターン認識の違いを実証する。
論文 参考訳(メタデータ) (2020-10-26T11:11:46Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。